JP2003339703A - Apparatus and system for processing ultrasonic image signal - Google Patents

Apparatus and system for processing ultrasonic image signal

Info

Publication number
JP2003339703A
JP2003339703A JP2003148199A JP2003148199A JP2003339703A JP 2003339703 A JP2003339703 A JP 2003339703A JP 2003148199 A JP2003148199 A JP 2003148199A JP 2003148199 A JP2003148199 A JP 2003148199A JP 2003339703 A JP2003339703 A JP 2003339703A
Authority
JP
Japan
Prior art keywords
image
image signal
ultrasonic
ultrasonic image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003148199A
Other languages
Japanese (ja)
Other versions
JP3715291B2 (en
Inventor
Tatsuo Nagasaki
達夫 長崎
Hatsuo Shimizu
初男 清水
Hiroyuki Watabe
洋之 渡部
Hiroyuki Fukuda
弘之 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2003148199A priority Critical patent/JP3715291B2/en
Publication of JP2003339703A publication Critical patent/JP2003339703A/en
Application granted granted Critical
Publication of JP3715291B2 publication Critical patent/JP3715291B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that a conventional ultrasonic diagnostic apparatus can obtain information of the section of an object from an image, but the section becomes a front surface image so that the image might be not preferably different from that at an observer's viewing point and a system for conducting a stereoscopic reconstruction has a large apparatus scale to need huge calculations. <P>SOLUTION: An apparatus for processing an ultrasonic image signal comprises: a scanner having a three-dimensional information retrieving unit 2 mechanically coupled to an electronic scanning type probe 1; an electronic scanning type ultrasonic diagnostic unit 3; an A-D converter 11 for digitizing an obtained video signal; a switch 12 for selecting a retrieved image signal or an image signal from a magneto-optic disk 19; a perspective projection processing circuit 13 for processing to coordinate-convert to perspectively project the selected image signal; an MPEG encoder 17 for compressing the perspective projection processed or unprocessed image signal to an MPEG format; and a TV monitor 21 for displaying the processed and the unprocessed image signal, an FMD (face mounted display) 22 and the disk 19 for recording the compressed image signal. A system for processing the ultrasonic image signal is provided. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は超音波画像信号を用
いて、観察する物体の断層面を3次元的に表示する装置
及びそのシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and its system for three-dimensionally displaying a tomographic plane of an object to be observed by using an ultrasonic image signal.

【0002】[0002]

【従来の技術】一般に超音波診断装置は、そのプローブ
の形状により、リニア、コンベックス、セクタと呼ばれ
るタイプに大別することができるが、いづれのタイプの
装置も観察物体の内部を非侵襲的に観察することができ
るのが特徴であり、特に医療の分野で広く診断に用いら
れてきている。
2. Description of the Related Art Generally, an ultrasonic diagnostic apparatus can be roughly classified into linear, convex, and sector types according to the shape of its probe. However, any type of apparatus can non-invasively examine the inside of an observation object. It is characterized in that it can be observed, and has been widely used for diagnosis, particularly in the medical field.

【0003】また、光学式エンコーダを使用した3次元
スキャナにより得られた超音波診断装置からのビデオ信
号をデジタル変換してメモリボードに取り込み、3次元
画像の作成に必要なデータを選び出し演算して、立体再
構成を行ない表示させるようなシステムがある。
Further, a video signal from an ultrasonic diagnostic apparatus obtained by a three-dimensional scanner using an optical encoder is digitally converted and taken into a memory board to select and calculate data necessary for creating a three-dimensional image. , There is a system that performs stereoscopic reconstruction and displays.

【0004】[0004]

【発明が解決しようとする課題】しかし、前述した従来
の超音波診断装置では、その画像により物体の断面の情
報を得ることができるが、その画像はあくまでも断面を
正面から見たような画像となっており、観察者の視点で
の見え方とは多少異なっている場合があり、診断上好ま
しくないこともあった。
However, in the above-mentioned conventional ultrasonic diagnostic apparatus, the information of the cross section of the object can be obtained from the image, but the image is just an image as if the cross section was seen from the front. However, it may be slightly different from what the observer sees, which is not desirable for diagnosis.

【0005】また、立体再構成を行なうシステムにおい
ては、再構成に必要な大量な画像データを蓄積しなけれ
ばならなかったために装置規模が大きくなり、かつ膨大
な演算が必要とされたために処理時間が長くかかってし
まい、リアルタイムでの観察は行なえなかった。
Further, in a system for performing three-dimensional reconstruction, a large amount of image data necessary for reconstruction must be stored, resulting in a large device scale, and a huge amount of calculation being required, resulting in processing time. It took a long time, and it was not possible to observe in real time.

【0006】そこで本発明は、超音波診断画像をリアル
タイムで3次元的に表示することを可能とし、再構成に
必要な大量の画像データを蓄積しても装置規模が大きく
ならない超音波画像信号処理装置及びそのシステムを提
供することを目的とする。
Therefore, the present invention enables ultrasonic diagnostic images to be displayed three-dimensionally in real time, and ultrasonic image signal processing that does not increase the scale of the apparatus even if a large amount of image data necessary for reconstruction is stored. An object is to provide an apparatus and its system.

【0007】[0007]

【課題を解決するための手段】本発明は上記目的を達成
するために、複数フィールド又は複数フレームにわたっ
て取り込まれた超音波画像信号を処理する装置であっ
て、各フィールド又はフレームの画像信号より生成され
る複数のフレームデータと、各フィールド又はフレーム
の3次元空間内での位置に係る複数のデータとを動画像
圧縮する圧縮手段と、動画像圧縮データを記録する記録
手段とを有する超音波画像信号処理装置を提供する。前
記圧縮手段は、MPEG形式にて動画像圧縮を行う。
In order to achieve the above object, the present invention is an apparatus for processing an ultrasonic image signal captured over a plurality of fields or a plurality of frames, which is generated from the image signal of each field or frame. Image having a plurality of pieces of frame data to be compressed and a plurality of pieces of data relating to the position of each field or frame in the three-dimensional space and a recording means for recording the compressed moving picture data A signal processing device is provided. The compression means performs moving image compression in the MPEG format.

【0008】また、被検査物体に近接し、移動するプロ
ーブから複数フレーム又は複数フィールドにわたって3
次元空間内での位置情報と共に超音波画像信号として取
り込むスキャナ手段と、前記スキャナ手段からの超音波
画像信号を画像信号に変換する超音波診断手段と、各フ
レーム又はフィールドの画像信号より生成される複数の
フレームデータと、各フィールド又はフレームの3次元
空間内での位置に係る複数のデータとを動画像圧縮する
圧縮手段と、動画像圧縮データを記録する記録手段とで
構成される超音波画像信号処理システムを提供する。
In addition, a plurality of frames or a plurality of fields from the moving probe in close proximity to the object to be inspected 3
Scanner means for capturing an ultrasonic image signal together with position information in the dimensional space, ultrasonic diagnostic means for converting the ultrasonic image signal from the scanner means into an image signal, and image signals of each frame or field are generated. An ultrasonic image including a compression unit that compresses a plurality of frame data and a plurality of data relating to the position of each field or frame in the three-dimensional space, and a recording unit that records the compressed moving image data. A signal processing system is provided.

【0009】以上のような構成の超音波画像信号処理装
置は、プローブの位置及び傾き情報又は観察者の観察条
件に係る情報を付加してディジタルで記録されている。
即ち、国際標準方式のMPEGで記録し、各フレームの
3D座標データつまり、左上隅座標と法線ベクトルはコ
ード化された後、記録される。透視投影変換が施された
画像もビデオ信号として、そのままVTR等に記録する
ことが可能であるが、やはり検索性等の面からディジタ
ル化されたデータとして記録される。
In the ultrasonic image signal processing apparatus having the above-mentioned structure, the position and tilt information of the probe or the information concerning the observation condition of the observer is added and digitally recorded.
That is, it is recorded by the MPEG of the international standard system, and the 3D coordinate data of each frame, that is, the upper left corner coordinate and the normal vector are coded and then recorded. An image subjected to perspective projection conversion can be recorded as a video signal as it is on a VTR or the like, but it is also recorded as digitized data in terms of searchability and the like.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。図1には、本発明による第1
の実施形態としての超音波画像信号処理装置の概略的な
構成を示し説明する。この超音波画像信号処理装置は、
大別して、スキャナ部、電子走査型超音波診断部、画像
処理部、記録再生部、表示部から構成される。
DETAILED DESCRIPTION OF THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows a first embodiment according to the present invention.
The schematic configuration of the ultrasonic image signal processing apparatus as the embodiment of will be shown and described. This ultrasonic image signal processing device,
It is roughly divided into a scanner section, an electronic scanning ultrasonic diagnostic section, an image processing section, a recording / reproducing section, and a display section.

【0011】前記スキャナ部は、電子走査型プローブ1
と機械的に連結された3次元情報取り込み部2によって
構成される。ここで、前記3次元情報取り込み部2は、
従来の技術で述べた3次元スキャナの場合では、光学式
エンコーダであり、各フレームの3次元空間内での位置
及び面の傾きを知ることができる。
The scanner unit comprises an electronic scanning probe 1.
And a three-dimensional information fetching section 2 mechanically connected to each other. Here, the three-dimensional information capturing unit 2 is
In the case of the three-dimensional scanner described in the related art, it is an optical encoder and can know the position of each frame in the three-dimensional space and the inclination of the surface.

【0012】前記電子走査型超音波診断部は、電子走査
型超音波診断装置3からなり、電子走査型プローブ1へ
パルスを供給すると共に、受信したエコー波をアナログ
ビデオ信号に変換し出力する。また入力部4は、本シス
テムで用いるパラメータの設定又は変更を行い、テキス
ト等を入力するものであり、マウス等のポインティング
デバイスが接続されている。この画像処理装置は、超音
波診断装置からのアナログビデオ信号を、後述する処理
を施した後、記録再生装置や表示装置をインターフェイ
スする。
The electronic scanning ultrasonic diagnostic unit comprises an electronic scanning ultrasonic diagnostic apparatus 3, which supplies a pulse to the electronic scanning probe 1 and converts the received echo wave into an analog video signal and outputs it. The input unit 4 is used to set or change parameters used in the present system and input text and the like, and is connected with a pointing device such as a mouse. The image processing apparatus interfaces the recording / reproducing apparatus and the display apparatus after performing the processing described later on the analog video signal from the ultrasonic diagnostic apparatus.

【0013】まず、電子走査型超音波診断装置3で得ら
れたアナログビデオ信号は、A/D変換器11でディジ
タルデータに変換され、スイッチ12を介して画像メモ
リを含む透視投影処理回路13に入力される。このスイ
ッチ12の切換えはCPU14によって制御され、後の
処理をA/D変換器11からの入力信号に施すか、後述
する記録再生部から読み出した画像信号に施すかを切り
換えるものである。
First, an analog video signal obtained by the electronic scanning ultrasonic diagnostic apparatus 3 is converted into digital data by an A / D converter 11, and is transmitted to a perspective projection processing circuit 13 including an image memory via a switch 12. Is entered. The switching of the switch 12 is controlled by the CPU 14 and switches whether the subsequent processing is performed on the input signal from the A / D converter 11 or on the image signal read from the recording / reproducing unit described later.

【0014】また、透視投影処理回路13による透視投
影するための座標変換処理が画像メモリ上で行なわれ
る。この座標変換処理は、3次元情報取り込み部2から
出力される3次元位置、角度情報を基にCPU14によ
って演算が行なわれ、透視投影コントローラ15からの
制御信号によって制御される。
Coordinate conversion processing for perspective projection by the perspective projection processing circuit 13 is performed on the image memory. This coordinate conversion processing is performed by the CPU 14 based on the three-dimensional position and angle information output from the three-dimensional information fetching unit 2, and is controlled by a control signal from the perspective projection controller 15.

【0015】そしてCPU14に制御されるスイッチ1
6の切換えによって、透視投影処理回路13を介するか
省くか、すなわち、透視投影処理を施すか、施さないか
を選択した後、記録再生部及び表示部へ伝送するための
処理を行なう。次に記録する場合には、MPEGエンコ
ーダ17によって動画像の国際標準圧縮方式であるMP
EGフォーマットに圧縮した後、バスコントローラ18
でCPU14からのデータを付加して記録再生部の光磁
気ディスク(MO)19に記録する。
The switch 1 controlled by the CPU 14
By switching 6, the selection is made through the perspective projection processing circuit 13 or not, that is, whether the perspective projection processing is performed or not, and then the processing for transmission to the recording / reproducing unit and the display unit is performed. When recording next, the MPEG encoder 17 uses MP, which is an international standard compression method for moving images.
After compression to EG format, the bus controller 18
Then, the data from the CPU 14 is added and recorded on the magneto-optical disk (MO) 19 of the recording / reproducing section.

【0016】また、データ表示は、D/A変換器20に
よってアナログ信号に変換した後、TVモニタ21やF
MD(フェイス・マウンテッド・ディスプレイ)22に
表示される。さらに、光磁気ディスク19に記録された
データを読出す場合には、バスコントローラ18によっ
て、ヘッダデータを読み出した後、MPEGデコーダ2
3によってデータを伸張し、スイッチ12を介して透視
投影処理回路13に送出される。
The data display is converted into an analog signal by the D / A converter 20, and then the TV monitor 21 or F
It is displayed on the MD (Face Mounted Display) 22. Furthermore, when reading the data recorded on the magneto-optical disk 19, the header data is read by the bus controller 18 and then the MPEG decoder 2 is used.
The data is decompressed by 3 and transmitted to the perspective projection processing circuit 13 via the switch 12.

【0017】なお、本実施形態では超音波診断装置と画
像処理装置を分けた構成で説明したが、これらを一体化
することも可能であり、その場合は電子走査型超音波診
断装置3からディジタル信号を直接取り出せるため、A
/D変換器11は不要であり、よりシンプルな装置とな
る。
In this embodiment, the ultrasonic diagnostic apparatus and the image processing apparatus have been described as separate components, but they can be integrated, and in that case, the electronic scanning ultrasonic diagnostic apparatus 3 can be used as a digital signal. Because the signal can be taken out directly, A
The / D converter 11 is unnecessary and the device becomes simpler.

【0018】次に前述した3次元スキャナにより得られ
る一連の超音波画像について説明する。例えば、図2に
示す装置は医療用で、内部に破線で示すような可動なプ
ローブを備えており、底面は観察しようとする患者の体
に密着させる部分であり、球面の形状をしている。この
プローブを矢印方向に一定速度で動かしながら超音波画
像を取り込んでいる。
Next, a series of ultrasonic images obtained by the above-mentioned three-dimensional scanner will be described. For example, the device shown in FIG. 2 is medical, has a movable probe as shown by a broken line inside, and the bottom surface is a portion to be brought into close contact with the body of the patient to be observed and has a spherical shape. . An ultrasonic image is captured while moving this probe in the direction of the arrow at a constant speed.

【0019】この時、プローブの位置は正確に判ってい
るので、各画像により切り出されている断面の位置も正
確に把握できる。本装置のプローブは通常の位置から前
後にそれぞれ30度の角度で傾けられるようになってお
り、端から端までの60度を毎秒30フレームづつ4秒
間でスキャンするようになっている。
At this time, since the position of the probe is accurately known, the position of the cross section cut out from each image can also be accurately known. The probe of this device is tilted back and forth from the normal position at an angle of 30 degrees, and scans 60 degrees from end to end at 30 frames per second for 4 seconds.

【0020】こうして得られた120枚の画像を再び3
次元空間に並べ直したものを、見やすくするためにフレ
ームを間引いて鳥瞰図的に観察すると図3に示すように
なっている。このように本発明は、3次元空間内に配置
されている各フレームの位置関係を感覚的に把握し易く
するために、これを適当な位置から観察したように表示
させる透視投影を行なっている。
The 120 images obtained in this way are recombined into 3
FIG. 3 is a bird's-eye view of a rearranged object in a three-dimensional space with thinned frames for easy viewing. As described above, in the present invention, in order to facilitate the sensory grasp of the positional relationship between the respective frames arranged in the three-dimensional space, the perspective projection is performed so that the frames are displayed as if they were observed from an appropriate position. .

【0021】図4は、視点変更のための透視投影を行な
うときの情報を表している。図4において、1フレーム
の超音波画像について考えるとすると、その超音波画像
の3次元空間内での座標を特定するためのデータとして
は、その画像の面の方程式が判っていて、画像中の少な
くとも1点の位置が特定されていることが必要である。
そこで、画像中の左上隅の3次元空間内の座標31と、
画像を含む平面の法線ベクトル32を与える。
FIG. 4 shows information when performing perspective projection for changing the viewpoint. Considering an ultrasonic image of one frame in FIG. 4, the equation of the plane of the image is known as data for specifying the coordinates of the ultrasonic image in the three-dimensional space. It is necessary that the position of at least one point is specified.
Therefore, the coordinate 31 in the three-dimensional space of the upper left corner in the image,
The normal vector 32 of the plane containing the image is given.

【0022】一方、その面を観察する条件としては、観
察者の位置と、視線と、視野角を定める必要がある。そ
のほかに、観察者が首を傾けながら観察している場合の
表示が行なえるようにするために、観察時の上方向を定
める必要があるが、本発明においては画像の自然さが求
められているため、観察時の上方向を超音波画像の上方
向と一致させるている。
On the other hand, as conditions for observing the surface, it is necessary to determine the position of the observer, the line of sight, and the viewing angle. In addition, it is necessary to determine the upward direction at the time of observation in order to enable display when the observer tilts his or her head, but in the present invention, the naturalness of the image is required. Therefore, the upward direction at the time of observation coincides with the upward direction of the ultrasonic image.

【0023】そこで、観察者の視点33と、視線を決定
するために観察者が注目している点34と、視野角35
を与える。ただし、視野角35は注目点から水平方向に
どこまで離れた点が視野に入るのかを角度で表したもの
としている。ここで、座標系は、一般的に右手系と呼ば
れるものを使用しており、即ち、水平方向右向きをx
軸、鉛直方向上向きをy軸、そして手前向きをz軸のそ
れぞれの正としている。これらの条件が与えられれば、
画像の透視投影を行なうことができ、あたかも指定した
観察位置から観察しているような画像を再生させること
ができるようになる。以下に投影の考え方について簡単
に説明する。
Therefore, the viewpoint 33 of the observer, the point 34 of interest of the observer for determining the line of sight, and the viewing angle 35.
give. However, the viewing angle 35 is an angle indicating how far in the horizontal direction the point of interest is from the point of interest. Here, as the coordinate system, what is generally called a right-handed system is used, that is, the horizontal right direction is x.
The axis, the upward direction in the vertical direction, and the forward direction are defined as the positive y axis and the positive z axis, respectively. Given these conditions,
It is possible to perform perspective projection of an image, and it becomes possible to reproduce an image as if it were observed from a designated observation position. The concept of projection will be briefly described below.

【0024】まず、視点33から視野に入る空間の中
に、視線と直角に位置する投影平面36を考え、この投
影平面36の視野に入る部分を画像の画素数に応じて分
割する。そして、その視野に入る部分の各画像と視点と
を結ぶ直線を求め、各直線と超音波画像の平面との交点
を求める。この各交点における画像の値を投影後の画像
の値とする。
First, consider a projection plane 36 positioned at a right angle to the line of sight in the space from the viewpoint 33 into the field of view, and divide the part of the projection plane 36 into the field of view according to the number of pixels of the image. Then, a straight line that connects each image in the field of view and the viewpoint is obtained, and the intersection of each straight line and the plane of the ultrasonic image is obtained. The value of the image at each intersection is taken as the value of the image after projection.

【0025】次に本発明において超音波画像を表示する
装置の一例として、眼鏡型ディスプレイ(以下FMD)
について説明する。例えば、特願平3−295874号
の「像観察装置」に開示されているFMDは図5に示す
ような構成となっている。この図では、使用者の頭部4
1、眼球42a,42bを表しており、部品43a,b
〜48a,bによる構成で顔面に保持するメガネ型のヘ
ッドホン付きディスプレイである。スピーカ内蔵の信号
処理部43a,bでは音声信号を再生しながら、画像信
号を自己発光型二次元表示素子44a,bに表示させ、
それを結像レンズ45a,b、光軸屈曲用くさび型プリ
ズム46a,b、開口絞り47a,b、及び非球面型凹
面鏡48a,bを用いて眼球内部に投影される。
Next, as an example of a device for displaying an ultrasonic image in the present invention, a spectacle type display (hereinafter referred to as FMD)
Will be described. For example, the FMD disclosed in "Image Observation Device" of Japanese Patent Application No. 3-295874 has a structure as shown in FIG. In this figure, the user's head 4
1 shows the eyeballs 42a and 42b, and the parts 43a and b
48a and 48b are glasses-type headphone-equipped displays to be held on the face. In the signal processing units 43a and 43b with built-in speakers, while reproducing the audio signals, the image signals are displayed on the self-luminous two-dimensional display elements 44a and 44b.
It is projected inside the eyeball using the imaging lenses 45a and 45b, the optical axis bending wedge prisms 46a and 46b, the aperture diaphragms 47a and 47b, and the aspherical concave mirrors 48a and 48b.

【0026】この画像及び音声信号処理は右、左それぞ
れに独立して行なわれるようになっているので、立体映
像及びステレオサウンドとして再生させることができ
る。本装置は、眼球の視度に合わせて非球面型凹面鏡4
8a,bの作る虚像の位置を適当な位置にできるよう、
自己発光型二次元表示素子44a,bの位置を光軸方向
に移動調整できる機能を有している。また、非球面型凹
面鏡48a,bは、その反射率を変えることができ、ス
イッチの切り替えによって素通しでFMDの外部を見る
いわゆるシースルー観察を行なうことも可能である。
Since this image and audio signal processing is performed independently for right and left, it can be reproduced as a stereoscopic image and stereo sound. This device is designed to match the diopter of the eyeball with an aspherical concave mirror 4
In order to set the position of the virtual image created by 8a and b to an appropriate position,
It has a function of adjusting the positions of the self-luminous two-dimensional display elements 44a, 44b in the optical axis direction. Further, the aspherical concave mirrors 48a, 48b can change their reflectances, and it is also possible to perform so-called see-through observation in which the outside of the FMD is viewed through the switch through a switch.

【0027】次に観察倍率を決定する視野角の決定方法
について説明する。まず、超音波画像内の見かけの大き
さと実際の物体の大きさとの関係を求めるとする。図6
(a)に示すように大きさhの物体51を、距離dだけ
離れた視点52で観察しているように表示させる場合を
考える。この物体の画像を図6(b)のFMD53を用
いて表示させる時、図で表されるように、FMDの片側
視野角θが16度で、表示領域54の中に360画素が
存在すると、物体51がディスプレイ上で下式のxで表
される画素数で領域55の大きさに表示されている時
に、見かけの大きさが一致する。
Next, a method of determining the viewing angle for determining the observation magnification will be described. First, suppose that the relationship between the apparent size in the ultrasonic image and the actual size of the object is obtained. Figure 6
Consider a case where an object 51 having a size h is displayed as shown in FIG. When an image of this object is displayed using the FMD 53 of FIG. 6B, as shown in the figure, when the one-sided viewing angle θ of the FMD is 16 degrees and 360 pixels are present in the display area 54, When the object 51 is displayed on the display in the size of the region 55 with the number of pixels represented by x in the following equation, the apparent sizes match.

【0028】 x=(360×h)/(tan16°×d) つまり、hの大きさの物をdの距離から実際に観察して
いるときに感じる大きさと、ディスプレイ上でx画素で
表示されているものを見たときに感じる大きさとが一致
することになる。
X = (360 × h) / (tan 16 ° × d) In other words, the size felt when actually observing an object having the size of h from the distance of d, and displayed by x pixels on the display. It matches the size you feel when you see what you see.

【0029】例えば、等倍で表示させるとき、撮影時に
取り込まれる画素数がディスプレイの画素数と等しいと
すれば、透視投影のときの視野角を16度として観察距
離をdとなるように視点を定めてやればよいことにな
る。
For example, if the number of pixels taken in at the time of shooting is equal to the number of pixels in the display when displaying at the same size, the viewpoint is set so that the viewing angle in perspective projection is 16 degrees and the observation distance is d. You just have to set it.

【0030】一方、実際の観察よりも倍率を大きくして
表示したり、遠近感を強調したりしたいときなどに、見
かけの大きさを異ならせて表示させる必要があるが、そ
の場合には視野角と観察距離を適当な値にしてやればよ
い。つまり、透視投影処理で用いる観察条件のパラメー
タを操作しながら投影変換を行なうことで、同時に倍率
を変化させて表示することができるので、ハード上の兼
用化が可能となり電子的ズームイン・ズームアウトのた
めに新たに手段を設ける必要がない。
On the other hand, when it is desired to display the image at a higher magnification than the actual observation or to emphasize the perspective, it is necessary to display the image with a different apparent size. The angle and the observation distance should be set to appropriate values. In other words, by performing projection conversion while manipulating the parameters of the viewing conditions used in the perspective projection process, it is possible to change and display the magnification at the same time, which makes it possible to combine hardware and electronic zoom-in / zoom-out. Therefore, it is not necessary to newly provide means.

【0031】本発明では図1に示したCPU14に対し
て、入力部4によりこれらを任意の値に設定することが
できる。次に立体画像の再生可能な装置への出力画像の
生成方法について説明する。
In the present invention, the CPU 14 shown in FIG. 1 can be set to arbitrary values by the input unit 4. Next, a method of generating an output image to a device capable of reproducing a stereoscopic image will be described.

【0032】視点を左目と右目の両方について用意し、
それらから透視投影により求めた左画像と右画像をそれ
ぞれ作成し、左右の目で別々に観察できるように表示さ
せる。例えば、FMDを利用するとき、左右の目で見る
画像を偶フィールド、奇フィールドのそれぞれに割り当
てる場合、左画像と右画像を偶フィールドと奇フィール
ドのそれぞれに記録する。そしてFMDでは、偶フィー
ルドの画像を左目用の表示素子に出力し、奇フィールド
の画像を右目用の表示素子に出力する。このとき、左目
と右目のそれぞれの視線は、注目点と両眼で異なった視
点とを結んだものになるので当然それぞれ異なったもの
になり、再生画像が視差を持つことにより立体視され、
より空間的配置を理解し易くなる。
Prepare viewpoints for both the left and right eyes,
A left image and a right image obtained by perspective projection are respectively created from them, and displayed so that the left and right eyes can observe them separately. For example, when using the FMD, when the images viewed by the left and right eyes are assigned to the even field and the odd field, the left image and the right image are recorded in the even field and the odd field, respectively. In the FMD, the even field image is output to the display element for the left eye, and the odd field image is output to the display element for the right eye. At this time, the line of sight of each of the left eye and the right eye becomes a different one because it connects the point of interest and the different viewpoints of both eyes, and thus naturally becomes different, and the reproduced image is stereoscopically viewed due to having parallax,
It becomes easier to understand the spatial arrangement.

【0033】FMDのような3次元画像表示装置に出力
する場合には、前述の視点から眼幅の半分の距離だけ左
の位置を左目視点とし、逆に右の位置を右目視点とす
る。そして、この2つの視点と注目点とを結んだ左目視
線と右目視線とで透視投影を行なうが、この眼幅を変え
ることで立体視するときの視差を変化させることがで
き、例えば、実際の3次元空間内での位置関係よりも、
奥行き感を強調したような表示にすることも可能であ
る。
In the case of outputting to a three-dimensional image display device such as an FMD, the left position is the left eye viewpoint and the right position is the right eye viewpoint from the above-mentioned viewpoint by a distance of half the eye width. Then, perspective projection is performed with a left visual line and a right visual line that connect these two viewpoints and the point of interest, and the parallax at the time of stereoscopic viewing can be changed by changing the pupil distance. Rather than the positional relationship in the three-dimensional space
It is also possible to make a display that emphasizes the sense of depth.

【0034】この奥行き強調も、透視投影のパラメータ
を変更するだけで実現でき、このために新たに手段を設
ける必要がないのは前述した電子的ズームイン・ズーム
アウトの場合と同様である。そこで、本発明では前述し
た入力部4より眼幅を操作者の好みにより変化させるこ
とができるようになっている。
This depth enhancement can also be realized only by changing the parameters of perspective projection, and it is not necessary to newly provide means for this, as in the case of the electronic zoom-in / zoom-out described above. Therefore, in the present invention, the pupil distance can be changed by the input unit 4 described above according to the preference of the operator.

【0035】本発明では、より立体的感覚を把握し易く
するために、表示画面の中に3次元方向のスケール(3
次元スケール)を併せて表示させることができるように
なっている。以下の3次元スケールを表示させる機能を
有した第2の実施形態について図を用いて説明する。
In the present invention, in order to make it easier to grasp the three-dimensional sensation, the scale (3
Dimension scale) can be displayed together. A second embodiment having a function of displaying the following three-dimensional scale will be described with reference to the drawings.

【0036】例えば、図7(a)は4枚のフレームの画
像が3次元的に表示されている状態で、x軸61、y軸
62a、z軸63aのそれぞれの座標軸に実寸の目盛り
が付けられて、スケールとして表示されている。この座
標軸は空間内の任意の位置を原点として作成されるよう
になっており、図においては3軸の正の値をとる座標だ
けが表示されているが、負の値についても表示させるこ
とが可能で、また、指定した座標軸だけを表示させるよ
うにすることもできるようになっている。
For example, in FIG. 7 (a), the images of four frames are displayed three-dimensionally, and actual scales are added to the coordinate axes of the x-axis 61, the y-axis 62a, and the z-axis 63a. And is displayed as a scale. This coordinate axis is designed to be created with an arbitrary position in space as the origin. In the figure, only the coordinates that have positive values for the three axes are displayed, but it is also possible to display negative values. It is possible to display only specified coordinate axes.

【0037】この座標軸の内、表示させる軸を決定させ
る方法としては、操作者が入力する以外に、視点の位置
によってそれぞれの座標軸を表示させた場合の効果を判
断し、効果があると判断されたもののみを表示すること
可能である。例えば図7(a)の場合、x軸61は画像
と重なってしまい、観察するには、むしろ無い方が好ま
しいと判断できる。また、y軸およびz軸の値の範囲は
超音波画像の存在する範囲を充分カバーできる大きさの
ものであることが望ましい。
As a method of determining the axis to be displayed among these coordinate axes, the effect of displaying each coordinate axis depending on the position of the viewpoint is judged in addition to the input by the operator, and it is judged to be effective. It is possible to display only what you have. For example, in the case of FIG. 7A, the x-axis 61 overlaps the image, and it can be determined that it is preferable not to observe it. Moreover, it is desirable that the range of the values of the y-axis and the z-axis is large enough to cover the range where the ultrasonic image exists.

【0038】このようにして座標軸の表示を決定した例
が図7(b)である。前述したように決定された座標軸
を実際に図7(b)のように表示させる方法について、
図8に示す構成を用いて以下に述べる。
An example in which the display of the coordinate axes is determined in this way is shown in FIG. 7 (b). Regarding the method of actually displaying the coordinate axes determined as described above as shown in FIG. 7B,
This will be described below using the configuration shown in FIG.

【0039】まず座標軸を画面のどこに配置するかを決
定するために、座標軸の原点を決定する。次に、前述し
たように決定した大きさの座標軸をスケール作成部71
により2値画像として作成し、超音波画像と同様に投影
変換処理部72にて透視投影を行なった画像にした後、
合成部73にて超音波画像にオーバーレイさせている。
そして、合成された画像信号は圧縮手段等を備えた記録
部74に記録され、表示部75に送られて表示される。
First, the origin of the coordinate axes is determined in order to determine where on the screen the coordinate axes are arranged. Next, the coordinate creation unit 71 sets the coordinate axes of the size determined as described above.
Is created as a binary image by, and the image is perspectively projected by the projection conversion processing unit 72 in the same manner as the ultrasonic image.
The synthesizing unit 73 overlays the ultrasonic image.
Then, the combined image signal is recorded in the recording unit 74 provided with a compression unit and the like, and is sent to the display unit 75 and displayed.

【0040】この座標軸は多値画像のものでもよく、C
PU76からの指示により合成部73はこのスケールを
指定した色を付けて表示させたり、超音波画像とのエク
スクルーシブオア(XOR)をとるようにしたり、観察
者の好みにより点滅させたり、表示を停止させたりする
ことができる。また、スケールはCPU76に接続され
ているマウス77によって画面内の任意の位置へ移動さ
せることができる。
This coordinate axis may be that of a multivalued image, and C
In accordance with an instruction from the PU 76, the synthesizing unit 73 displays this scale with a designated color, displays an exclusive OR (XOR) with the ultrasonic image, blinks it according to the observer's preference, and stops the display. It can be done. Further, the scale can be moved to any position on the screen by the mouse 77 connected to the CPU 76.

【0041】このスケールを表示させることによって、
物体の大きさやフレーム毎の位置が測定し易くなる他
に、FMDでの観察の場合フレーム内に左右の視差の基
準点ができて、より立体的感覚を得易くなるといった効
果が生ずる。尚、本実施形態で説明した機能と、図1で
示した実施形態との対応は、図8に示すスケール作成部
71、投影変換処理部72、合成部73は図1における
透視投影処理回路13に含まれる。また、記録部74と
表示部75は、図1におけるMPEGエンコーダ17、
バスコントローラ18、光磁気ディスク19とD/A変
換器20、TVモニタ21、FMD22とMPEGデコ
ーダ23にそれぞれ対応している。
By displaying this scale,
In addition to facilitating measurement of the size of the object and the position of each frame, when observing with an FMD, left and right reference points of parallax are formed in the frame, which makes it easier to obtain a stereoscopic sensation. The correspondence between the function described in the present embodiment and the embodiment shown in FIG. 1 is that the scale creating unit 71, the projection conversion processing unit 72, and the synthesizing unit 73 shown in FIG. 8 are the perspective projection processing circuit 13 in FIG. include. In addition, the recording unit 74 and the display unit 75 are the MPEG encoder 17 in FIG.
It corresponds to the bus controller 18, the magneto-optical disk 19, the D / A converter 20, the TV monitor 21, the FMD 22 and the MPEG decoder 23, respectively.

【0042】次に、この様な装置による画像信号の記録
方法について説明する。
Next, a method of recording an image signal by such an apparatus will be described.

【0043】まず図9にはMPEGのデータ構造例を示
し簡単に説明する。シーケンス層は複数のGOP層と呼
ばれる画像データの集合から構成されている。そしてこ
のGOP層は、ある枚数のピクチャ層と呼ばれるフレー
ムのデータから構成されている。このとき各層はその層
の先頭に各層のデータに関する情報をヘッダとして記録
している。図9で81はシーケンスヘッダであり画像の
サイズや量子化マトリクスなどのデータが書込まれる。
82はGOPヘッダでタイムコード等を含んでいる。8
3、85及び87はピクチャヘッダで、符号化のタイプ
や動ベクトルに関する情報が書込まれる。そして、8
4、86、88はそれぞれがフレームのデータであり、
上述の各ヘッダにはそれぞれユーザが定義できる領域が
含まれている。
First, FIG. 9 shows an example of the MPEG data structure, which will be briefly described. The sequence layer is composed of a set of a plurality of image data called GOP layers. The GOP layer is composed of a certain number of frames of data called a picture layer. At this time, each layer records information regarding the data of each layer as a header at the head of the layer. In FIG. 9, reference numeral 81 is a sequence header in which data such as image size and quantization matrix is written.
A GOP header 82 contains a time code and the like. 8
Reference numerals 3, 85, and 87 are picture headers, in which information regarding the coding type and motion vector is written. And 8
4, 86 and 88 are frame data,
Each of the above headers includes a user-definable area.

【0044】次に、本発明の超音波画像信号処理装置に
よる実際の記録動作について説明する。透視投影変換を
行なう前のオリジナル画像はビデオ信号として出力され
ているので、そのままVTR等に記録することもできる
が、3次元データを記録しておくことや検索性および記
録性等から、プローブの位置及び傾き情報又は観察者の
観察条件に係る情報を付加してディジタルで記録されて
いることが望ましい。つまり、シーケンスを動画像圧縮
記録の国際標準方式であるMPEGで記録し、各フレー
ムの3D座標データつまり、左上隅座標と法線ベクトル
はコード化した後、ピクチャヘッダに記録するようにし
ている。
Next, an actual recording operation by the ultrasonic image signal processing apparatus of the present invention will be described. Since the original image before perspective projection conversion is output as a video signal, it can be recorded as it is on a VTR or the like, but three-dimensional data is recorded, searchability and recordability make it possible to save the probe image. It is desirable that the position and tilt information or information relating to the viewing condition of the observer be added and digitally recorded. That is, the sequence is recorded by MPEG, which is an international standard method of moving image compression recording, and the 3D coordinate data of each frame, that is, the upper left corner coordinate and the normal vector are encoded and then recorded in the picture header.

【0045】一方、透視投影変換を行なった画像もビデ
オ信号としてそのままVTR等に記録することが可能で
あるが、やはり検索性等の面からディジタル化されたデ
ータとして記録されていることが望ましい。この記録の
際に、オリジナル画像を取り込んだ装置に関する情報
や、透視投影後の画像であることを示すフラグと投影時
の視点、注目点、視野角に関する情報は、シーケンスヘ
ッダに記録するようにしている。
On the other hand, the image subjected to the perspective projection conversion can be recorded as a video signal on the VTR or the like as it is, but it is desirable that the image is also recorded as digitized data from the viewpoint of searchability. At the time of this recording, the information about the device that captured the original image, the flag indicating that the image is after perspective projection, and the information about the viewpoint at the time of projection, the point of interest, and the viewing angle should be recorded in the sequence header. There is.

【0046】この変換前の画像と変換後の画像のどちら
を記録するのかを切り替えるのは、図1に示したスイッ
チ16により行なっている。また、再生時にはスイッチ
12を切り替えて、読み出された信号を透視投影処理部
13に送っている。そして記録されていた信号が変換前
のオリジナル画像であった場合は、スイッチ16を切り
替えて透視投影処理部13からの出力を表示部へ送り、
変換後の信号であった場合は透視投影処理部13を通さ
ないで表示させるようにスイッチ16を切り替えてい
る。
Switching between the pre-conversion image and the post-conversion image to be recorded is performed by the switch 16 shown in FIG. Further, during reproduction, the switch 12 is switched to send the read signal to the perspective projection processing unit 13. Then, when the recorded signal is the original image before conversion, the switch 16 is switched to send the output from the perspective projection processing unit 13 to the display unit,
When the signal is the converted signal, the switch 16 is switched so that the signal is displayed without passing through the perspective projection processing unit 13.

【0047】また、前述した3次元方向のスケールはオ
ーバーレイされた画像を記録することもできるが、オー
バーレイせずに、超音波画像のみを画像データとして記
録し、スケールは符号化してシーケンスヘッダのユーザ
データ領域に記録するようにすることもできる。この
時、図8に示す合成部73では、オーバーレイした画像
を表示部75に出力し、オーバーレイしていない変換後
の超音波画像を記録部74に出力している。そして、C
PU76にてスケールに関する情報を符号化した信号を
作成して、記録部74に送っている。記録部74は送ら
れた信号からヘッダを作成し、画像信号を符号化してM
Oや磁気テープ等の媒体に記録する。
Although the above-mentioned three-dimensional scale can record an overlayed image, only an ultrasonic image is recorded as image data without overlaying, and the scale is encoded to be a user of the sequence header. It is also possible to record in the data area. At this time, the synthesizing unit 73 shown in FIG. 8 outputs the overlaid image to the display unit 75, and outputs the converted ultrasonic image without overlay to the recording unit 74. And C
The PU 76 creates a signal in which the scale-related information is encoded and sends it to the recording unit 74. The recording unit 74 creates a header from the transmitted signal, encodes the image signal, and outputs M
It is recorded on a medium such as O or a magnetic tape.

【0048】前述したスケールの符号化方法は、画面上
での始点と終点および目盛りの間隔を記録しているが、
再生装置にてスケールを再構成することができるだけの
情報が記録されているならば、どのような方法であって
も構わない。
In the above-described scale encoding method, the start point, the end point, and the scale interval on the screen are recorded.
Any method may be used as long as the reproduction apparatus records information that can reconstruct the scale.

【0049】このように、透視投影前後の画像をそれぞ
れ記録する機能を有するのは、投影前の画像を記録して
おけば、超音波画像取り込み装置からのオリジナルの最
も解像度の高い画像を残しておくことができ、さらに本
発明の透視投影再生装置を利用することで、観察位置を
任意に変更した透視投影画像を得ることができる。
As described above, the function of recording the images before and after the perspective projection, respectively, is that if the images before projection are recorded, the original image with the highest resolution from the ultrasonic image capturing device remains. By using the perspective projection reproducing apparatus of the present invention, it is possible to obtain a perspective projection image in which the observation position is arbitrarily changed.

【0050】一方、透視投影後の画像を記録しておけ
ば、透視投影機能のない通常の再生装置にて再生が可能
となるからである。
On the other hand, if the image after perspective projection is recorded, it can be reproduced by a normal reproducing apparatus having no perspective projection function.

【0051】次に、この超音波画像信号処理装置におい
て、記録されるフレームについて考えてみる。通常、超
音波画像は画像と垂直な方向に対して有限な解像度を持
っており、ここで1フレームで分解できる最小の厚さの
値をr[mm]とし、プローブが幅w[mm]を時間t
[秒]だけ掛けて、1秒毎にsフレーム[フレーム/
秒]の画像を取り込んでいるとすると、 r>w/(st)[mm/フレーム] の場合オーバーサンプリングである。ここで、本発明に
おいて観察部位の動きの少ない場合、w/(rst)の
比率でフレームをリサンプリングして記録情報量を減ら
すことができるようになっている。
Next, let us consider a frame to be recorded in this ultrasonic image signal processing apparatus. Normally, an ultrasonic image has a finite resolution in the direction perpendicular to the image, and the minimum thickness value that can be resolved in one frame is r [mm], and the probe has a width w [mm]. Time t
Multiply by [sec], and s frames [frame /
If an image of [second] is captured, r> w / (st) [mm / frame], then oversampling. Here, in the present invention, when the movement of the observation region is small, it is possible to reduce the amount of recorded information by resampling the frame at a ratio of w / (rst).

【0052】図10に、その判断を行うフローチャート
を示し説明する。まず、記録媒体節約モードがオンか否
か判断し(ステップS1)、オンである場合(YE
S)、次にr>w/(st)か否か判断し(ステップS
2)、その結果が真であるとき(YES)、(rst)
/wを小数点以下切捨てを行って整数化した値iを求め
る(ステップS4)。前記ステップS1でオフ,ステッ
プS2で偽であった場合には(NO)、値i=1に設定
し(ステップS3)、後述するステップS6に移行す
る。
FIG. 10 shows a flow chart for making the determination, which will be described. First, it is judged whether the recording medium saving mode is on (step S1), and if it is on (YE
S), and then determine whether r> w / (st) (step S
2) When the result is true (YES), (rst)
/ W is truncated to the right of the decimal point to obtain an integer value i (step S4). If it is off in step S1 and false in step S2 (NO), the value i is set to 1 (step S3), and the process proceeds to step S6 described later.

【0053】次にステップS4で求めた値iに基づき、
観察画像の動きの早さからそのフレームレートの最小値
mを求め、その値がs/i以下であるか否か判断し(ス
テップS5)、真であれば(YES)、s/i[フレー
ム/秒]のフレームレートで記録を行なう(ステップS
6)。もし偽であれば(NO)、iは条件を満足する最
大の整数を求めるためにiから1を減じ(ステップS
7)、ステップS5に戻る。ここで、最小フレームレー
トmは図1の入力部4のキーボードからの入力によるも
のでも構わないが、例えば、圧縮回路の動きベクトル検
出回路を用いてブロック毎に動きベクトルを求めて、そ
れらの動きベクトルの中で、最も大きいものを利用して
最小フレームレートを自動的に決定するようにしても良
い。
Next, based on the value i obtained in step S4,
The minimum value m of the frame rate is calculated from the speed of movement of the observed image, and it is determined whether or not the value is s / i or less (step S5). If true (YES), s / i [frame / Sec] frame rate recording (step S
6). If false (NO), i subtracts 1 from i to obtain the maximum integer that satisfies the condition (step S
7) and returns to step S5. Here, the minimum frame rate m may be input from the keyboard of the input unit 4 in FIG. 1, but for example, a motion vector is obtained for each block by using the motion vector detection circuit of the compression circuit, and those motions are calculated. Of the vectors, the largest one may be used to automatically determine the minimum frame rate.

【0054】これまでプローブを機械的に移動させて連
続的に超音波画像を取り込んだ場合の例を示してきた
が、本発明による第3の実施形態として、超音波画像信
号処理装置に用いられる超音波画像の取り込みに関する
他の例について説明する。
An example of the case where the probe is mechanically moved to continuously capture an ultrasonic image has been shown so far, but as a third embodiment according to the present invention, the ultrasonic image signal processing apparatus is used. Another example of capturing an ultrasonic image will be described.

【0055】ここで、図1に示した3次元情報取り込み
部2の例として、3D(3次元)マウスについて説明す
る。
A 3D (3D) mouse will be described as an example of the 3D information capturing unit 2 shown in FIG.

【0056】図11は磁気方式の3Dマウスの概念的な
構成を示したものである。
FIG. 11 shows a conceptual configuration of a magnetic type 3D mouse.

【0057】この3Dマウスにおいて、ソース91は
x、y、z3軸にコイルを巻いた直交コイルであり、ド
ライブ回路92に駆動されて、所定の磁界を発生する。
この磁界中でソース91に対峙させ、複数の直交コイル
からなるセンサ95を置くと、センサ95の各コイルに
電流が誘起される。この誘起された電流は、磁界の強度
に比例するため、検出回路94で電圧に変換された後、
CPU93によって距離・角度情報として出力される。
In this 3D mouse, the source 91 is an orthogonal coil in which coils are wound around x, y, and z axes, and is driven by the drive circuit 92 to generate a predetermined magnetic field.
When a sensor 95 composed of a plurality of orthogonal coils is placed in opposition to the source 91 in this magnetic field, a current is induced in each coil of the sensor 95. Since the induced current is proportional to the strength of the magnetic field, it is converted into a voltage by the detection circuit 94, and
It is output as distance / angle information by the CPU 93.

【0058】この距離・角度情報とは、図12に示すよ
うに、x,y,zで表される位置及び、Q
,Qで表される各軸での角度である。従来、
3次元位置センサを3個使用して3次元情報を取り込ん
でいたが、この3Dマウス1個で実現できるようにな
り、装置が非常にコンパクトに設計できるようになる。
As shown in FIG. 12, the distance / angle information is the position represented by x, y, z and Q x ,
It is an angle on each axis represented by Q y and Q z . Conventionally,
The three-dimensional position sensor was used to capture the three-dimensional information, but this can be realized with one 3D mouse, and the device can be designed very compactly.

【0059】この3Dマウスを超音波プローブに取り付
けた場合、プローブを移動させながら超音波画像を取り
込み、その各フレーム毎の基準座標と法線ベクトルを同
時に得ることが可能である。このプローブを用いれば、
操作者が自由にプローブを移動させたり、傾けたりしな
がら取り込んだ超音波画像でも透視投影を行なった観察
が可能なことは言うまでもなく、前述したように3D座
標データをヘッダに付加した記録を行なうことで、診察
が終った後でも、その映像がプローブをどのように動か
しながら取り込んだものかが判る。
When this 3D mouse is attached to the ultrasonic probe, it is possible to capture the ultrasonic image while moving the probe and simultaneously obtain the reference coordinates and the normal vector for each frame. With this probe,
Needless to say, it is possible to perform perspective projection observation even on an ultrasonic image captured while the operator freely moves or tilts the probe, and as described above, recording is performed with 3D coordinate data added to the header. By doing so, you can see how the image was captured while moving the probe even after the examination.

【0060】前述した3Dマウスのついたプローブを超
音波による断面と同一平面内を移動させて取り込んだ超
音波画像は、一部重なり合う部分を持って並んでいる。
これをプローブの位置情報によって連続した広画角の画
像を得られる。
The ultrasonic images captured by moving the probe with the 3D mouse described above in the same plane as the cross section by the ultrasonic waves are arranged with some overlapping portions.
An image with a continuous wide angle of view can be obtained based on the position information of the probe.

【0061】例えば、図13に示すように2つの画像9
6,97が並んでいる場所から取り込まれたとすると、
通常の観察では、どちらか一方だけしか表示させること
ができなかった。しかし、この2枚の画像から1枚の画
像98を作ることにより、従来はプローブの大きさによ
り制限されてしまっていた観察領域の範囲を広げること
が可能となった。つまり、観察したい範囲に応じて必要
な枚数の画像を取り込むことにより、例えば肝臓の様に
大きな臓器を一枚の超音波画像の中に表示することがで
きるようになった。
For example, two images 9 as shown in FIG.
If it is taken from the place where 6,97 are lined up,
In normal observation, only one of them could be displayed. However, by creating one image 98 from these two images, it has become possible to widen the range of the observation region that was conventionally limited by the size of the probe. In other words, by capturing the required number of images according to the range to be observed, it has become possible to display a large organ such as the liver in one ultrasonic image.

【0062】また、複数のプローブを用いて、各プロー
ブからの信号を上記方法と同じようにして広画角超音波
画像を得ることもできる。従って、プローブの移動にか
かる時間を短縮することができるため、動きのある部分
の観察にも画像のずれが生じることがない。
Further, it is possible to obtain a wide-angle ultrasonic image by using a plurality of probes and by making the signal from each probe the same as in the above method. Therefore, the time required for moving the probe can be shortened, so that the image does not shift even when observing a moving portion.

【0063】次に第4の実施形態として、本出願人が提
案した特願平4−89092号の「撮像装置」および特
願平4−94473号の「電子カメラ」に開示されてい
る画像の合成アルゴリズムを本発明に適用した例につい
て説明する。
Next, as a fourth embodiment, the images disclosed in the "image pickup device" of Japanese Patent Application No. 4-89092 and the "electronic camera" of Japanese Patent Application No. 4-94473 proposed by the present applicant will be described. An example of applying the synthesis algorithm to the present invention will be described.

【0064】図14に示すように、互いにエリアの一部
が重なるように、取り込まれた2つの画像信号の画像1
と画像2が画像記憶部101に一時的に記憶される。画
像記憶部101から読み出された重なり領域の画像信号
に基づいて、変位量検出部102で検出された変換係数
(回転量R、ずれ量S)により、各画像の相対的な画素
位置が特定される。補間部103は、複数の画像の画素
値に補間演算を順次、用いて画素値を補正し、重ね合わ
せのための補間画像信号を得る。この補間画像信号と、
画像記憶部101の信号を合成部104で合成し広画角
の画像として出力している。
As shown in FIG. 14, the image 1 of the two image signals captured so that the areas partially overlap each other.
And the image 2 are temporarily stored in the image storage unit 101. Based on the image signal of the overlapping area read from the image storage unit 101, the relative pixel position of each image is specified by the conversion coefficient (rotation amount R, displacement amount S) detected by the displacement amount detection unit 102. To be done. The interpolation unit 103 sequentially corrects the pixel values by sequentially using the interpolation calculation on the pixel values of the plurality of images, and obtains an interpolated image signal for superposition. This interpolated image signal,
The signals in the image storage unit 101 are combined by the combining unit 104 and output as a wide-angle image.

【0065】この方法によれば、3Dマウスによる3D
座標情報の値の精度があまり高くない場合でも、重なり
部分の信号から2つの画像の相対的な位置関係を精度良
く求めることができるので、合成された画像の接続部分
が、不連続にならないといった特徴を持つ。ここでは入
力画像を2枚用いた場合について説明したが、さらに多
くの画像を用いることでさらに広画角な投影画像を得る
ことができるようになる。
According to this method, 3D by 3D mouse
Even if the accuracy of the coordinate information value is not very high, the relative positional relationship between the two images can be accurately obtained from the signal of the overlapping portion, so that the connecting portion of the combined images does not become discontinuous. With characteristics. Although the case where two input images are used has been described here, it is possible to obtain a projection image with a wider view angle by using more images.

【0066】さらに、前述した3Dマウスを観察者の動
きの検出に用いた場合、3DマウスとFMDとを組み合
せて、観察者の頭部の動きを検出するようにして頭部の
動きに連動して画面をスクロールする機能を持たせるこ
とも可能である。つまり、前述の広画角画像を観察する
際に、その一部を画面に表示させておき、画面内に入り
切らない部分はそちらに顔を向けることで画面がスクロ
ールされて画面に入ってくるように表示させる。これに
より、FMDの視野に入らない大きさの画像も仮想的に
画像の空間を広げて取り扱えるようになる。
Further, when the above-mentioned 3D mouse is used for detecting the movement of the observer, the 3D mouse and the FMD are combined to detect the movement of the head of the observer and interlock with the movement of the head. It is also possible to have a function of scrolling the screen by using. In other words, when observing the above-mentioned wide-angle image, a part of it is displayed on the screen, and the part that does not completely fill the screen is turned to face by turning the face to enter the screen. To be displayed. As a result, an image having a size that does not fit in the field of view of the FMD can be handled by virtually expanding the image space.

【0067】次に本発明の超音波画像信号処理装置によ
る第5の実施形態として、超音波画像から特定の臓器を
抽出して形状を測定したり、特殊な観察を行なう例につ
いて説明する。
Next, as a fifth embodiment of the ultrasonic image signal processing apparatus of the present invention, an example in which a specific organ is extracted from an ultrasonic image to measure the shape and a special observation is performed will be described.

【0068】図15は超音波画像に対して、画像の形状
解析に使われる手法として一般的な境界抽出処理や、輪
郭線抽出処理を施して、胆嚢等の臓器の領域を抽出した
例であり、超音波画像111の中からテクスチャーの不
連続部分を探し出してその境界線画像112を得てい
る。この境界線は臓器の表面の一部分であり、複数のフ
レームから抽出された境界をワイヤーフレームで表示さ
せたり、補間を行いながらつなぎ合わせて臓器の表面を
取り出し、ハッチング処理等を行って表示させることが
できる。
FIG. 15 shows an example in which an area of an organ such as the gallbladder is extracted by performing general boundary extraction processing or outline extraction processing as a method used for image shape analysis on an ultrasonic image. The boundary image 112 is obtained by searching for a discontinuous portion of the texture in the ultrasonic image 111. This boundary line is a part of the surface of the organ, and the boundaries extracted from multiple frames are displayed in a wire frame, or the surfaces of the organs are taken out by connecting them while performing interpolation, and are displayed by performing a hatching process, etc. You can

【0069】図16に、このような処理を実施するため
の回路の構成例を示している。前述した3次元スキャナ
を用いた例で、スキャナ部113から取り込まれた12
0フレームの超音波画像シーケンスはメモリ部114に
一旦記録される。この信号は2つに分けられて一方はこ
れまで説明してきた透視投影部115にて投影変換され
る。そしてもう一方の信号は臓器表面抽出処理部116
にて各フレーム毎に臓器表面の抽出を行い、それを立体
再構成部117にて3次元空間内でのワイヤフレームに
して、透視投影部118にて投影変換を行う。
FIG. 16 shows a configuration example of a circuit for carrying out such processing. In the example using the above-mentioned three-dimensional scanner, 12 captured from the scanner unit 113
The ultrasonic image sequence of 0 frame is temporarily recorded in the memory unit 114. This signal is divided into two and one is projected and converted by the perspective projection unit 115 described so far. The other signal is the organ surface extraction processing unit 116.
The surface of the organ is extracted for each frame, and the three-dimensional reconstruction unit 117 forms a wire frame in the three-dimensional space, and the perspective projection unit 118 performs projection conversion.

【0070】これらの2つの投影変換後の信号は、信号
合成部119にて合成された後、表示部120のFMD
に表示される。このワイヤフレーム化された臓器情報は
シーケンス中で不変であるが、各フレームにて超音波画
像の断面と交叉する位置が異なっている。そこで、合成
するときに、超音波画像面よりも観察者側の部分のワイ
ヤフレームを実線で表示させ、向こう側の部分を破線で
表示させるようにしている。
These two post-projection converted signals are combined by the signal combining section 119 and then the FMD of the display section 120.
Is displayed in. The organ information in the wire frame is unchanged in the sequence, but the position where it intersects with the cross section of the ultrasonic image is different in each frame. Therefore, when synthesizing, the wire frame of the portion closer to the observer than the ultrasonic image plane is displayed by a solid line, and the portion on the other side is displayed by a broken line.

【0071】この手法において表示は、120フレーム
のシーケンスを繰り返し再生するようにしているので、
臓器部分の3次元再構成がリアルタイムに行うことがで
きなかったとしても、再構成が完了し次第合成するよう
にしている。このときの、繰り返し読み出されるシーケ
ンスを記憶しているメモリ部114については、媒体は
半導体の他に、光磁気ディスク等で構成しても構わな
く、画像圧縮伸長回路を内蔵させたものを用いて記憶す
る信号にデータ圧縮処理を施すようにしたものでも構わ
ない。
In this method, the display is made so that the sequence of 120 frames is repeatedly reproduced.
Even if the three-dimensional reconstruction of the organ portion cannot be performed in real time, it is synthesized as soon as the reconstruction is completed. At this time, for the memory unit 114 that stores the repeatedly read sequence, the medium may be a magneto-optical disk or the like in addition to the semiconductor, and a medium having an image compression / expansion circuit is used. The signal to be stored may be subjected to data compression processing.

【0072】本発明の第6の実施形態としての超音波画
像信号処理装置において、更に入力されるシーケンスに
対して、時間的に前のフレームの信号をたし合わせて残
像効果を与えるような処理を行なうこともできる。図1
7はこの残像処理を行なったものを透視投影して表示さ
せる場合の信号の処理を表している。画像入力部121
からのシーケンスは透視投影部122にて変換された
後、乗算器123にて係数aを乗じられ、メモリ部12
5の信号に乗算器126にて係数bを乗じた信号と加算
器124でたし合わされる。
In the ultrasonic image signal processing apparatus according to the sixth embodiment of the present invention, a process for adding an afterimage effect by adding signals of a frame preceding in time to a further input sequence. You can also do Figure 1
Reference numeral 7 denotes a signal processing when the image after the afterimage processing is displayed by perspective projection. Image input unit 121
After being converted by the perspective projection unit 122, the sequence from is multiplied by the coefficient a in the multiplier 123,
The signal of 5 is multiplied by the coefficient b in the multiplier 126 and added in the adder 124.

【0073】この結果は、次のフレームの信号とたし合
わせるためにメモリ部125に書き込まれるものと、表
示部127に送られるものとに分けられる。ただし、こ
こで用いられる係数a及びbは、フレームの重みを表す
もので、bの値が大きくなるほど残像効果が強くなり、
両者はたすと1となるように定められたものである。こ
の構成を用いることで、画像のフレーム間の変化を残像
として見ることができるようになり、空間的な配置を更
に把握しやすくなる。
The result is divided into one that is written in the memory unit 125 to be added to the signal of the next frame and one that is sent to the display unit 127. However, the coefficients a and b used here represent frame weights, and the larger the value of b, the stronger the afterimage effect.
Both are set to be 1 when added. By using this configuration, it is possible to view a change between frames of an image as an afterimage, and it becomes easier to grasp the spatial arrangement.

【0074】これまで投影変換のパラメータを変更する
ことで1つのオリジナルシーケンスから様々な状態で観
察しているような画像を作成することができることを説
明してきたが、これらを同時に見たいという要望もあ
る。
Up to now, it has been explained that it is possible to create an image as if observed in various states from one original sequence by changing the parameters of the projection transformation, but there is also a desire to see these at the same time. is there.

【0075】第7の実施形態として、例えば図18で入
力画像が透視投影処理部131に送られ、そこで正面、
左、右、上からの4つの視点からの観察画像を作成し、
その4つの画像をマルチ画面作成部132にて、それぞ
れを図19に示す如く画面の第1象限から第4象限に表
示させるマルチ画面140とし、表示部133に送るよ
うにする。このとき表示画面を4分割しているので、1
つの画面は4分の1の大きさに縮小されているのだが、
先に説明したように、透視投影変換のパラメータを入力
部134によって適当な値にしてやることによって同時
に縮小された画像にすることができるので、縮小画像を
作成するための回路は必要ない。そして、適当な位置か
ら観察しているように変換するためのパラメータの計算
及びこれらパラメータの設定や、マルチ画面のレイアウ
トの情報の提供も、CPU135により行なわれる。ま
た、透視投影処理は、各パラメータ毎に独立で処理され
ているので、分割数が多くなって1つの透視投影処理部
だけでは計算が間に合わなくなった場合は、透視投影処
理部をパラレルに複数接続してそれぞれに計算させるよ
うにすることも可能である。図18の破線で囲まれてい
る部分はそのような時に、透視投影処理部131a、1
31b、…のように増設していった場合の例で、通常は
必要ない。
As a seventh embodiment, for example, in FIG. 18, the input image is sent to the perspective projection processing unit 131, where the front,
Create observation images from four viewpoints from left, right, and top,
The four screens are sent to the display unit 133 by the multi-screen creating unit 132 as a multi-screen 140 for displaying each of the four images from the first quadrant to the fourth quadrant as shown in FIG. At this time, the display screen is divided into four, so 1
One screen has been reduced to a quarter size,
As described above, it is possible to simultaneously reduce the images by setting the parameters of the perspective projection conversion to appropriate values by the input unit 134, and thus a circuit for creating the reduced image is not necessary. Then, the CPU 135 also calculates parameters for setting conversion for viewing from an appropriate position, sets these parameters, and provides information on the layout of the multi-screen. Further, since the perspective projection processing is processed independently for each parameter, if the number of divisions increases and the calculation cannot be completed with only one perspective projection processing unit, a plurality of perspective projection processing units are connected in parallel. It is also possible to make each calculate. In such a case, the portions surrounded by broken lines in FIG. 18 are perspective projection processing units 131a and 1a.
This is an example of the case where the number is increased like 31b, ...

【0076】以上説明した本発明の超音波画像信号処理
装置を医療の分野で超音波画像を観察しながら処置を行
う場合の一例を述べる。例えば、注射針状の器具を腹部
の内部に挿入し、同時に超音波画像でその位置を確認し
ながら目標組織の細胞を採取して検査を行なったり、癌
組織に直接抗癌剤を注射することが行なわれている。そ
のような処置では、針の先端の位置と組織との位置関係
をリアルタイムに得られることが望まれている。そのよ
うな場合に本発明の超音波画像信号処理装置の映像をF
MDを用いて観察することで、立体的に針の先端と目標
組織とを見ながら作業が行なえるため、非常に正確で、
安全に組織の細胞を採取することができるようになる。
このときFMDのシースルー切り替えスイッチにフット
スイッチ等を用いれば、シースルー機能を利用して超音
波画像と実際の作業をしている手元を見ることを、FM
Dの取り外しを行わずにかつ作業を中断することなく切
り替えることができ、非常に安全でかつ便利である。
An example of the case where the ultrasonic image signal processing apparatus of the present invention described above is used for treatment while observing an ultrasonic image in the medical field will be described. For example, an injection needle-shaped device is inserted inside the abdomen, cells of the target tissue are collected and tested while confirming the position on the ultrasound image at the same time, or the anticancer drug is directly injected into the cancer tissue. Has been. In such a procedure, it is desired to obtain the positional relationship between the position of the tip of the needle and the tissue in real time. In such a case, the image of the ultrasonic image signal processing device of the present invention is displayed by F
By observing with MD, you can work while seeing the tip of the needle and the target tissue three-dimensionally, so it is very accurate,
The cells of the tissue can be safely collected.
At this time, if a foot switch or the like is used as the see-through changeover switch of the FMD, the see-through function is used to see the ultrasonic image and the hand at which the actual work is performed.
It is possible to switch without removing D and without interrupting work, which is very safe and convenient.

【0077】また本発明は、前述した実施形態に限定さ
れるものではなく、他にも発明の要旨を逸脱しない範囲
で種々の変形や応用が可能であることは勿論である。
Further, the present invention is not limited to the above-mentioned embodiment, and it goes without saying that various modifications and applications can be made without departing from the scope of the invention.

【0078】[0078]

【発明の効果】以上詳述したように本発明によれば、各
フィールド又はフレームの画像信号により生成される複
数のフレームデータと、各フィールド又はフレームの3
次元空間内での位置に係る複数のデータを圧縮して記録
するように構成したので、再構成に必要な大量の画像デ
ータを蓄積しても装置規模が大きくならない超音波画像
信号処理装置及びそのシステムを提供することができ
る。又、超音波診断画像を3次元的に表示することを可
能とし、立体的な形状および位置を感覚的にも容易に獲
得可能な超音波画像信号処理装置及び超音波画像信号処
理システムを提供することができる。
As described above in detail, according to the present invention, a plurality of frame data generated by an image signal of each field or frame and three fields of each field or frame.
Since the plurality of data relating to the position in the dimensional space is configured to be compressed and recorded, the ultrasonic image signal processing device and its device size do not increase even if a large amount of image data necessary for reconstruction is stored. A system can be provided. Further, the present invention provides an ultrasonic image signal processing device and an ultrasonic image signal processing system, which can display an ultrasonic diagnostic image three-dimensionally and can easily acquire a three-dimensional shape and position sensuously. be able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による第1の実施形態としての超音波画
像信号処理装置の概略的な構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of an ultrasonic image signal processing apparatus according to a first embodiment of the present invention.

【図2】3次元スキャナの構成例を示す図である。FIG. 2 is a diagram showing a configuration example of a three-dimensional scanner.

【図3】図3に示した3次元スキャナによるスキャン状
態を鳥瞰図的に示した図である。
FIG. 3 is a bird's-eye view showing a scanning state by the three-dimensional scanner shown in FIG.

【図4】視点変更のための透視投影を行なうときの情報
を表す図である。
FIG. 4 is a diagram showing information when performing perspective projection for changing a viewpoint.

【図5】像観察装置(眼鏡型ディスプレイ)の構成例を
示す図である。
FIG. 5 is a diagram showing a configuration example of an image observation apparatus (glasses type display).

【図6】超音波画像の見かけの大きさと実際の物体の大
きさとの関係を示す図である。
FIG. 6 is a diagram showing a relationship between an apparent size of an ultrasonic image and an actual size of an object.

【図7】本発明の第2の実施形態としての3次元スケー
ルを表示させる機能を説明するための図である。
FIG. 7 is a diagram for explaining a function of displaying a three-dimensional scale as a second embodiment of the present invention.

【図8】本発明の第3の実施形態としての超音波画像信
号処理装置の概略的な構成を示す図である。
FIG. 8 is a diagram showing a schematic configuration of an ultrasonic image signal processing apparatus as a third embodiment of the present invention.

【図9】MPEGのデータ構造例を示す図である。FIG. 9 is a diagram showing an example of a data structure of MPEG.

【図10】第3の実施形態の超音波画像信号処理装置の
動作を説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining the operation of the ultrasonic image signal processing device according to the third embodiment.

【図11】超音波画像信号処理装置に用いられる磁気方
式の3Dマウスの具体的な構成を示す図である。
FIG. 11 is a diagram showing a specific configuration of a magnetic 3D mouse used in an ultrasonic image signal processing apparatus.

【図12】3Dマウスにおける距離・角度情報を説明す
るための図である。
FIG. 12 is a diagram for explaining distance / angle information in a 3D mouse.

【図13】3Dマウスを用いて取り込んだ画像の状態を
説明するための図である。
FIG. 13 is a diagram for explaining a state of an image captured by using a 3D mouse.

【図14】第4の実施形態としての超音波画像信号処理
装置の構成を示す図である。
FIG. 14 is a diagram showing a configuration of an ultrasonic image signal processing device according to a fourth embodiment.

【図15】本発明による第5の実施形態としての超音波
画像信号処理装置による境界抽出処理や輪郭線抽出処理
を施して特定領域を抽出する例を示す図である。
FIG. 15 is a diagram showing an example in which a specific area is extracted by performing boundary extraction processing or contour line extraction processing by an ultrasonic image signal processing apparatus according to a fifth embodiment of the present invention.

【図16】第5の実施形態の超音波画像信号処理装置の
構成を示す図である。
FIG. 16 is a diagram showing a configuration of an ultrasonic image signal processing device according to a fifth embodiment.

【図17】本発明による第6の実施形態としての超音波
画像信号処理装置の構成を示す図である。
FIG. 17 is a diagram showing a configuration of an ultrasonic image signal processing device as a sixth embodiment according to the present invention.

【図18】本発明による第7の実施形態としての超音波
画像信号処理装置の構成を示す図である。
FIG. 18 is a diagram showing a configuration of an ultrasonic image signal processing device as a seventh embodiment according to the present invention.

【図19】第7の実施形態により観察される画像例を示
す図である。
FIG. 19 is a diagram showing an example of an image observed according to the seventh embodiment.

【符号の説明】[Explanation of symbols]

1…電子走査型プローブ、2…3次元情報取り込み部、
3…電子走査型超音波診断装置、4…入力部、11…A
/D変換器、12,16…スイッチ、13…透視投影処
理回路、14…CPU、15…透視投影コントローラ、
17…MPEGエンコーダ、18…バスコントローラ、
19…光磁気ディスク(MO)、20…D/A変換器、
21…TVモニタ、22…FMD(フェイス・マウンテ
ッド・ディスプレイ)、23…MPEGデコーダ。
1 ... Electronic scanning probe, 2 ... three-dimensional information capturing unit,
3 ... Electronic scanning type ultrasonic diagnostic apparatus, 4 ... Input section, 11 ... A
/ D converter, 12, 16 ... Switch, 13 ... Perspective projection processing circuit, 14 ... CPU, 15 ... Perspective projection controller,
17 ... MPEG encoder, 18 ... Bus controller,
19 ... Magneto-optical disk (MO), 20 ... D / A converter,
21 ... TV monitor, 22 ... FMD (face mounted display), 23 ... MPEG decoder.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡部 洋之 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 福田 弘之 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 4C601 BB03 BB16 EE12 JC25 KK21 LL13    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroyuki Watanabe             2-43 Hatagaya, Shibuya-ku, Tokyo Ori             Inside Npus Optical Industry Co., Ltd. (72) Inventor Hiroyuki Fukuda             2-43 Hatagaya, Shibuya-ku, Tokyo Ori             Inside Npus Optical Industry Co., Ltd. F-term (reference) 4C601 BB03 BB16 EE12 JC25 KK21                       LL13

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数フィールド又は複数フレームにわた
って取り込まれた超音波画像信号を処理する装置であっ
て、 各フィールド又はフレームの画像信号より生成される複
数のフレームデータと、各フィールド又はフレームの3
次元空間内での位置に係る複数のデータとを動画像圧縮
する圧縮手段と、 動画像圧縮データを記録する記録手段と、を有したこと
を特徴とする超音波画像信号処理装置。
1. An apparatus for processing an ultrasonic image signal captured over a plurality of fields or a plurality of frames, wherein a plurality of frame data generated from the image signals of the respective fields or frames and 3 of each field or frame.
An ultrasonic image signal processing apparatus, comprising: a compression unit that compresses a moving image of a plurality of pieces of data relating to a position in a dimensional space; and a recording unit that records the compressed image data.
【請求項2】 前記圧縮手段がMPEG形式にて前記動
画像圧縮を行うものであることを特徴とする請求項1に
記載の超音波画像信号処理装置。
2. The ultrasonic image signal processing apparatus according to claim 1, wherein the compression means performs the moving image compression in MPEG format.
【請求項3】 被検査物体に近接し、移動するプローブ
から複数フレーム又は複数フィールドにわたって3次元
空間内での位置情報と共に超音波画像信号として取り込
むスキャナ手段と、 前記スキャナ手段からの超音波画像信号を画像信号に変
換する超音波診断手段と、 各フレーム又はフィールドの画像信号より生成される複
数のフレームデータと、各フィールド又はフレームの3
次元空間内での位置に係る複数のデータとを動画像圧縮
する圧縮手段と、 動画像圧縮データを記録する記録手段と、を有すること
を特徴とする超音波画像信号処理システム。
3. Scanner means for capturing as an ultrasonic image signal together with position information in a three-dimensional space over a plurality of frames or a plurality of fields from a moving probe which is close to an object to be inspected, and an ultrasonic image signal from the scanner means. Ultrasonic diagnostic means for converting the image into an image signal, a plurality of frame data generated from the image signal of each frame or field, and 3 of each field or frame
An ultrasonic image signal processing system, comprising: a compression unit for compressing a moving image of a plurality of data relating to a position in a dimensional space; and a recording unit for recording the compressed moving image data.
【請求項4】 前記圧縮手段がMPEG形式にて前記動
画像圧縮を行うものであることを特徴とする請求項3に
記載の超音波画像信号処理システム。
4. The ultrasonic image signal processing system according to claim 3, wherein the compression means performs the moving image compression in an MPEG format.
JP2003148199A 2003-05-26 2003-05-26 Ultrasonic image signal processor Expired - Fee Related JP3715291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003148199A JP3715291B2 (en) 2003-05-26 2003-05-26 Ultrasonic image signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003148199A JP3715291B2 (en) 2003-05-26 2003-05-26 Ultrasonic image signal processor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP5222410A Division JPH0773300A (en) 1993-09-07 1993-09-07 Ultrasonic image signal processing device/system

Publications (2)

Publication Number Publication Date
JP2003339703A true JP2003339703A (en) 2003-12-02
JP3715291B2 JP3715291B2 (en) 2005-11-09

Family

ID=29774819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003148199A Expired - Fee Related JP3715291B2 (en) 2003-05-26 2003-05-26 Ultrasonic image signal processor

Country Status (1)

Country Link
JP (1) JP3715291B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031368A (en) * 2007-07-24 2009-02-12 Nec Corp Screen display-control method, screen display-control system, electronic equipment, and program
JP2011252714A (en) * 2010-05-31 2011-12-15 Olympus Corp Nondestructive inspection device
WO2012157585A1 (en) * 2011-05-19 2012-11-22 株式会社東芝 Medical image diagnostic apparatus and image-processing apparatus
JP2012254279A (en) * 2011-05-13 2012-12-27 Sony Corp Image processing device, image processing method, program, recording medium, image processing system, and probe
WO2013012042A1 (en) * 2011-07-19 2013-01-24 株式会社東芝 Image processing system, device and method, and medical image diagnostic device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031368A (en) * 2007-07-24 2009-02-12 Nec Corp Screen display-control method, screen display-control system, electronic equipment, and program
JP2011252714A (en) * 2010-05-31 2011-12-15 Olympus Corp Nondestructive inspection device
JP2012254279A (en) * 2011-05-13 2012-12-27 Sony Corp Image processing device, image processing method, program, recording medium, image processing system, and probe
WO2012157585A1 (en) * 2011-05-19 2012-11-22 株式会社東芝 Medical image diagnostic apparatus and image-processing apparatus
JP2012254288A (en) * 2011-05-19 2012-12-27 Toshiba Corp Medical image diagnostic apparatus and image-processing apparatus
CN102893306A (en) * 2011-05-19 2013-01-23 株式会社东芝 Medical image diagnostic apparatus and image-processing apparatus
US9282324B2 (en) 2011-05-19 2016-03-08 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus and image processing apparatus
WO2013012042A1 (en) * 2011-07-19 2013-01-24 株式会社東芝 Image processing system, device and method, and medical image diagnostic device

Also Published As

Publication number Publication date
JP3715291B2 (en) 2005-11-09

Similar Documents

Publication Publication Date Title
JP3728160B2 (en) Depth image measuring apparatus and method, and mixed reality presentation system
JP4508878B2 (en) Video filter processing for stereoscopic images
KR101608848B1 (en) System and method for generating a multi-dimensional image
US20140293007A1 (en) Method and image acquisition system for rendering stereoscopic images from monoscopic images
JP4939639B2 (en) Image processing apparatus, image processing method, program, and recording medium
US9210407B2 (en) Image processing apparatus and method, and program
KR19980071768A (en) CORNER DETECTION DEVICE AND CORNER DETECTION METHOD
JP2004358096A (en) Ultrasonic endoscope apparatus
JP5771754B2 (en) Stereoscopic endoscope system
JP2003325514A (en) Ultrasonic diagnostic apparatus
JPH07129792A (en) Method and device for image processing
KR100263936B1 (en) Apparatus and method for converting 2-d video sequence to 3-d video using virtual stereoscopic video
JP3715291B2 (en) Ultrasonic image signal processor
US20180131921A1 (en) Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program
JPH0773300A (en) Ultrasonic image signal processing device/system
Owczarczyk et al. Evaluation of true 3 D display systems for visualizing medical volume data
KR20140035747A (en) Ultrasound imaging apparatus and control method for the same
KR19990057668A (en) 3D image conversion device and method of 2D continuous image using transformation of motion parallax into horizontal parallax
KR20010096556A (en) 3D imaging equipment and method
JP2006126965A (en) Composite video generation system, method, program and recording medium
JPH10336703A (en) Image compositing device, its method and storage medium
WO2019026183A1 (en) Image generation device and image generation method
JPH09200803A (en) Image processing unit and image processing method
KR100731266B1 (en) Signal process method and apparatus for 3 dimension image
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Written amendment

Effective date: 20050325

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20050809

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050824

LAPS Cancellation because of no payment of annual fees