JPH0461393B2 - - Google Patents

Info

Publication number
JPH0461393B2
JPH0461393B2 JP57125898A JP12589882A JPH0461393B2 JP H0461393 B2 JPH0461393 B2 JP H0461393B2 JP 57125898 A JP57125898 A JP 57125898A JP 12589882 A JP12589882 A JP 12589882A JP H0461393 B2 JPH0461393 B2 JP H0461393B2
Authority
JP
Japan
Prior art keywords
image
image signal
signal
reproduced
entropy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP57125898A
Other languages
Japanese (ja)
Other versions
JPS5917660A (en
Inventor
Shigeru Ando
Akihiko Nishide
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP57125898A priority Critical patent/JPS5917660A/en
Publication of JPS5917660A publication Critical patent/JPS5917660A/en
Publication of JPH0461393B2 publication Critical patent/JPH0461393B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は、画像対象から得られる画像信号を処
理する画像信号処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to an image signal processing device for processing image signals obtained from an image object.

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

パターン認識分野、画像処理分野、画像計測分
野等においては、画像対象から得られる画像信号
を電気的な信号に変換し、この画像信号を電子計
算機で処理する画像信号処理装置が広く用いられ
ている。そして画像対象には、可視パターンと不
可視パターンがあり、この画像対象から超音波を
用いた音響電気変換や、可視光又は赤外線を用い
た光電変換などの方法によつて、画像信号が取り
出される。
In the field of pattern recognition, image processing, image measurement, etc., image signal processing devices that convert image signals obtained from image objects into electrical signals and process these image signals with electronic computers are widely used. . The image object includes visible patterns and invisible patterns, and an image signal is extracted from the image object by a method such as acoustoelectric conversion using ultrasonic waves or photoelectric conversion using visible light or infrared rays.

たとえば、可視光を用いた光電変換による方法
としては、テレビカメラやビデオに用いられてい
るように、画像対象である物体に光を照射し、そ
の物体表面の反射率分布に応じた反射光を画像信
号として入力し、光電変換素子により電気信号に
変換するものである。そしてこの画像信号は信号
処理されテレビ受像器の画面などの画像として再
生される。
For example, a method using photoelectric conversion using visible light, as used in television cameras and video cameras, involves irradiating light onto an object to be imaged and emitting reflected light according to the reflectance distribution on the object's surface. It is input as an image signal and converted into an electrical signal by a photoelectric conversion element. This image signal is then processed and reproduced as an image on a television receiver screen or the like.

また、この画像信号は、計測分野において物体
の大きさ、長さ、形状、位置関係、テキスチヤー
等のパラメータを計測する上での基礎データとし
て用いられる。これについて、カメラを用いて被
写体までの距離を測定する例を説明する。
Further, this image signal is used as basic data for measuring parameters such as the size, length, shape, positional relationship, texture, etc. of an object in the measurement field. Regarding this, an example will be described in which the distance to the subject is measured using a camera.

カメラで物体を撮像する場合には、人間の目の
焦点調節作用によつて目とレンズ間の距離の調節
が行なわれる。焦点の合つた目とレンズ間の距離
が決まると光学幾何計算により物体と目の距離が
測定できる。このとき、物体と目の間の距離のお
よその値は分かつているため、焦点合わせが可能
なレンズと目のおよその距離が分かり焦点を合わ
せ画像を鮮鋭化させることができる。さらに、正
確な物体と目の距離が分かる。これは、画像の鮮
鋭化調節で、距離というパラメータが計測できる
ことになる。
When capturing an image of an object with a camera, the distance between the eye and the lens is adjusted by the focusing action of the human eye. Once the distance between the focused eye and the lens is determined, the distance between the object and the eye can be measured using optical geometry calculations. At this time, since the approximate value of the distance between the object and the eye is known, the approximate distance between the eye and the lens that can be focused can be determined and the image can be focused and sharpened. Additionally, you can determine the exact distance between your eyes and objects. This means that a parameter called distance can be measured by adjusting the sharpness of the image.

従来の自動焦点整合装置は、各パラメータ値の
下で物体を映し出した画像から取り出されている
各画像信号に対して、所定の演算を行ない、両演
算値の相対的な偏差が最大又は最小になるよう
に、パラメータ値を自動的に調整し焦点整合を行
なうものである。
Conventional automatic focusing devices perform predetermined calculations on each image signal extracted from an image of an object under each parameter value, and determine whether the relative deviation between the two calculation values is maximum or minimum. This method automatically adjusts parameter values and performs focus matching.

以下、カメラの自動焦点整合について詳しく説
明する。カメラの自動焦点では物体とレンズ間の
距離であるピント位置pをパラメータとし、ピン
ト位置pに対する画像をG(p)としたとき、以下の
ような画像鮮鋭度Z(p)を定義する。
The automatic focusing of the camera will be explained in detail below. In automatic focusing of a camera, the focus position p, which is the distance between the object and the lens, is used as a parameter, and when the image corresponding to the focus position p is G(p), the following image sharpness Z(p) is defined.

Z(p)= Σx,y (∂/∂xG(p)(x,y))2 上式はx方向に1次微分した画像の各画素値の
2乗をx,y全画素について積算(積分)するこ
とを示している。
Z(p)= Σ x,y (∂/∂xG(p)(x,y)) 2The above formula integrates the square of each pixel value of the image that is first differentiated in the x direction for all x and y pixels. (integration).

カメラの自動焦点を行う場合は、取り出された
2つのピント位置p1,p2に対してそれぞれの画
像鮮鋭度Z(p1),Z(p2)を計算する。この2つ
のパラメータ値p1,p2に対応するZ(p1),Z
(p2)を比べ、Z(p)を最大にするように、ピント
位置pを移動させる。こうして真のピント位置pt
を検出する。
When performing automatic focusing of the camera, image sharpness Z(p1) and Z(p2) are calculated for the two extracted focus positions p1 and p2, respectively. Z(p1), Z corresponding to these two parameter values p1, p2
(p2), and move the focus position p so as to maximize Z(p). In this way, the true focus position pt
Detect.

このように従来の装置では、物体とレンズとの
焦点整合を行なうのに、機械的にレンズを自動的
に移動させてカメラの絞りを変化させ、取り込ま
れる複数の画像の焦点整合の度合を相対的に比較
しながら、適正に焦点整合が行なわれた画像を得
ていた。しかし最初に取得したあるパラメータ値
(たとえば先に述べた物体とレンズ間の距離D)
における画像信号に基づいて、この画像を取得す
る際に条件となるパラメータ値を数値的に変化さ
せ、取得した画像信号に対して取得した際のパラ
メータ値とは違う値に変化させ、取得した画像信
号を適正なパラメータ値に対する画像信号に変換
し、焦点整合された画像信号を得て、焦点整合を
自動的に行なうことはできなかつた。このため、
1つの物体から十分に焦点整合された画像を得る
のに、パラメータ値を変化させ、それぞれのパラ
メータ値の下で取得した画像が必要になり、焦点
整合に費やす時間が多大になる欠点があつた。
In this way, conventional devices automatically move the lens mechanically and change the aperture of the camera to align the focus between the object and the lens, and then compare the degree of focus alignment of multiple captured images. While comparing the images, images with proper focus alignment were obtained. However, a certain parameter value obtained first (for example, the distance D between the object and the lens mentioned earlier)
Based on the image signal at It has not been possible to convert the signal into an image signal for appropriate parameter values, obtain a focused image signal, and automatically perform focus alignment. For this reason,
In order to obtain a sufficiently focused image of one object, it is necessary to change the parameter values and obtain images under each parameter value, which has the disadvantage that a large amount of time is spent on focusing. .

〔発明の目的〕[Purpose of the invention]

本発明は、画像対象から1回の測定で取得され
る画像信号を、この画像信号取得の際条件となる
パラメータを数値的に変化させることにより適正
に焦点整合が行なわれた画像を再生する画像信号
に変換できる画像信号処理装置を提供するもので
ある。
The present invention reproduces an image in which focus alignment has been properly performed by numerically changing parameters that are conditions for image signal acquisition from an image signal acquired in one measurement from an image target. The present invention provides an image signal processing device that can convert images into signals.

〔発明の概要〕[Summary of the invention]

本発明は、1回の測定で画像対象から取得され
る画像信号を、量子化された離散的な電気信号の
原画像信号に変換して記憶し、この原画像信号
と、画像信号を画像対象から取得の際条件となる
パラメータを適用した点拡がり関数との相関をと
つて、原画像信号を再生画像信号に変換し、この
再生画像信号を正規化し、正規化された信号に情
報量のエントロピーの概念を応用して画像エント
ロピーを求め、この画像エントロピーが最小にな
るように画像信号取得の際条件となるパラメータ
値を変化させ、この変化したパラメータを適用し
た再生画像信号に画像信号を変換するものであ
る。
The present invention converts an image signal obtained from an image target in one measurement into an original image signal of a quantized discrete electric signal and stores it, and converts this original image signal and the image signal to the image target. The original image signal is converted into a reproduced image signal by correlating it with a point spread function to which the parameters that are the conditions for acquisition are applied, the reproduced image signal is normalized, and the entropy of the information amount is calculated in the normalized signal. Find the image entropy by applying the concept of , change the parameter values that are the conditions for acquiring the image signal so that this image entropy is minimized, and convert the image signal into a reproduced image signal that applies the changed parameters. It is something.

〔発明の実施例〕[Embodiments of the invention]

本発明に基づく実施例を図面を参照して説明す
る。本実施例においては、物体に放射した超温波
の反射波を画像信号として導入する方式について
説明する。画像信号入力方法は、電波通信分野に
おいて用いられている合成開口法の概念を応用し
たものである。
Embodiments based on the present invention will be described with reference to the drawings. In this embodiment, a method will be described in which a reflected wave of ultra-temperature waves emitted to an object is introduced as an image signal. The image signal input method is an application of the concept of the synthetic aperture method used in the field of radio communications.

本実施例においては第2図に示すように、一定
速度で円軌道を描いて回転している物体1を画像
化する対象とし、再生しようとしている画像(再
生画像)は物体1の静止状態の像である。この物
体1は、ターンテーブル2上の円周部に接続され
た垂直な棒3の先端に設けられ、未知の回転数x
の一定速度でターンテーブル2が回転することに
より、物体1は空間を円軌道を描いて回転する。
In this example, as shown in FIG. 2, the object 1 that is rotating at a constant speed in a circular orbit is the object to be imaged, and the image to be reproduced (reproduced image) is the image of the object 1 in a stationary state. It is a statue. This object 1 is installed at the tip of a vertical rod 3 connected to the circumference of a turntable 2, and has an unknown rotational speed x.
By rotating the turntable 2 at a constant speed of , the object 1 rotates in a circular orbit in space.

5は超音波発振器であり、円軌道を描いて回転
している物体1へ超音波を放射する。11は画像
信号入力部であり、超音波発振器5に近接して設
けられ、画像化対象である物体1からの超音波の
反射波を受信し、画像信号に変換する。
5 is an ultrasonic oscillator, which emits ultrasonic waves to the object 1 rotating in a circular orbit. Reference numeral 11 denotes an image signal input section, which is provided close to the ultrasonic oscillator 5, receives reflected waves of ultrasonic waves from the object 1 to be imaged, and converts them into image signals.

この超音波発振器5と画像信号入力部11は一
体となつて、物体1が一回転するごとに物体1の
回転面と垂直方向に直立した軸であるスケール6
の最上部から下方にn個に分割された1個分の距
離Dを移動距離して下方に移動する。
The ultrasonic oscillator 5 and the image signal input section 11 are integrally connected to a scale 6, which is an axis perpendicular to the plane of rotation of the object 1, every time the object 1 rotates once.
is moved downward by a distance D corresponding to one divided into n parts.

また、物体1が回転する際に描く円へ超音波発
振器5の超音波源から接線を引いた場合の2つの
接点を両端にもつ超音波発振器5側の円弧上を物
体1が移動する間の所定時間、2つの接点と超音
波源で形成される放射範囲角度で超音波が放射さ
れ、データ収集が行われる。
Also, when the object 1 moves on an arc on the side of the ultrasonic oscillator 5 that has two points of contact at both ends when a tangent is drawn from the ultrasonic source of the ultrasonic oscillator 5 to the circle drawn when the object 1 rotates, Ultrasonic waves are emitted at a radiation range angle formed by the two contacts and the ultrasound source for a predetermined time, and data collection is performed.

第1図はこの実施例の全体構成を示すブロツク
図である。図において、入力回路部10は、画像
信号入力部11と、A/D変換器12と、画像メ
モリ13とから構成される。
FIG. 1 is a block diagram showing the overall configuration of this embodiment. In the figure, an input circuit section 10 is composed of an image signal input section 11, an A/D converter 12, and an image memory 13.

画像信号入力部11は、受信する反射波と超音
波発振器5の送信する超音波との相互相関演算を
して、位相振幅情報データを得る。これを画像信
号として出力する。この画像信号はフーリエ変換
されている空間周波数成分であり、この画像信号
が直接対象とする画像は、物体1のホログラム
(回折像分布画像)であり、物体1の再生画像で
はない。
The image signal input unit 11 performs a cross-correlation calculation between the received reflected wave and the ultrasound transmitted by the ultrasound oscillator 5 to obtain phase amplitude information data. This is output as an image signal. This image signal is a spatial frequency component that has been Fourier transformed, and the image directly targeted by this image signal is a hologram (diffraction image distribution image) of the object 1, not a reproduced image of the object 1.

A/D変換器12は、画像信号入力部11の出
力する画像信号を量子化された離散的信号に変換
する。画像メモリ13は、A/D変換器12で変
換され得られた原画像信号D(i,j)を原画像
信号メモリ領域13aに記憶する。なお、画像メ
モリ13は再生画像信号メモリ領域13bも有し
ている。
The A/D converter 12 converts the image signal output from the image signal input section 11 into a quantized discrete signal. The image memory 13 stores the original image signal D(i,j) obtained by conversion by the A/D converter 12 in an original image signal memory area 13a. Note that the image memory 13 also has a reproduced image signal memory area 13b.

14は画像再生部であり、原画像信号からを画
像を再生する再生画像信号に変換する。
Reference numeral 14 denotes an image reproducing unit, which converts the original image signal into a reproduced image signal for reproducing an image.

ここで、画像の変換及び再生の原理を説明す
る。
Here, the principle of image conversion and reproduction will be explained.

画像対象からの測定で取得、量子化されたもの
を原画像信号D(i,j)、物体の画像を表すもの
として再生すべき画像を再生画像信号G1(i,
j)とすると、両者の間には、変換に関与する伝
達関数k(i,j)を介して、次式の関係が一般
的に成立している。
The original image signal D (i, j) is obtained by measurement and quantized from the image object, and the reproduced image signal G 1 (i, j) is the image to be reproduced representing the image of the object.
j), the following relationship generally holds between the two through a transfer function k(i, j) involved in the conversion.

D(i,j)=k(i,j)*G1(i,j) ここで、*は、コンボリユーシヨン演算を示
す。再生画像信号G1(i,j)の再生は、以下の
演算処理により行う。
D(i,j)=k(i,j)*G 1 (i,j) Here, * indicates a convolution operation. The reproduction of the reproduced image signal G 1 (i, j) is performed by the following arithmetic processing.

フーリエ変換をF、逆フーリエ変換をF-1で表
すと、上式により次式を導くことがでる。
If the Fourier transform is represented by F and the inverse Fourier transform is represented by F -1 , the following formula can be derived from the above formula.

G1(i,j) =F-1[F(D(i,j)/F(k(i,j))] ここで、/はデコンボリユーシヨン演算を示
し、このデコンボリユーシヨンとは周波数領域に
おいて原画像信号D(i,j)と点拡がり関数k
(i,j)の相互相関演算である。
G 1 (i,j) =F -1 [F(D(i,j)/F(k(i,j))] Here, / indicates a deconvolution operation, and this deconvolution and is the original image signal D(i,j) and the point spread function k in the frequency domain
This is a cross-correlation calculation of (i, j).

こうして、再生画像信号G1(i,j)が求めら
れる。
In this way, the reproduced image signal G 1 (i, j) is obtained.

伝達関数k(i,j)は、測定系の特性によつ
て規定されるもので、画像対象から画像信号を取
得する際のパラメータxを含んでいる。そこで、
本実施例においては、伝達関数k(i,j)とし
て、未知のパラメータxを含む点拡がり関数k
(i,j,k)とる。そうすると、上式の関係か
ら上記点拡がり関数k(i,j,k)に対して未
知のパラメータxを適用し、測定によつて得られ
た原画像信号D(i,j,k)に基づいて再生画
像信号G1(i,j,k)を再生できる。なお、本
実施例では、この原画像信号はすでにフーリエ変
換されている空間周波数成分として、取得されて
いる。
The transfer function k(i,j) is defined by the characteristics of the measurement system, and includes a parameter x when acquiring an image signal from an image object. Therefore,
In this example, the transfer function k (i, j) is a point spread function k including an unknown parameter x.
Take (i, j, k). Then, from the relationship in the above equation, the unknown parameter x is applied to the point spread function k (i, j, k), and based on the original image signal D (i, j, k) obtained by measurement, The reproduced image signal G 1 (i, j, k) can be reproduced. Note that in this embodiment, this original image signal is acquired as a spatial frequency component that has already been Fourier transformed.

画像再生部14では、以下のような処理を行な
う。
The image reproduction section 14 performs the following processing.

画像メモリ13の原画像信号メモリ領域13a
に記憶されている原画像信号D(i,j)を取り
出す。パラメータ値xを適用して作られる点拡が
り関数kをフーリエ変換する。このフーリエ変換
された点拡がり関数kと原画像信号Dとのデコン
ボリユーシヨンを行い、G1(i,j,k)を得
る。この再生画像とは静止状態の物体1の反射率
分布に基づく像である。そしてこの再生画像信号
G1(i,j,k)を画像メモリ13の再生画像信
号メモリ領域13bに記憶させる。
Original image signal memory area 13a of image memory 13
The original image signal D(i,j) stored in is extracted. The point spread function k created by applying the parameter value x is Fourier transformed. This Fourier-transformed point spread function k and the original image signal D are deconvoluted to obtain G 1 (i, j, k). This reproduced image is an image based on the reflectance distribution of the object 1 in a stationary state. And this reproduced image signal
G 1 (i, j, k) is stored in the reproduced image signal memory area 13b of the image memory 13.

画像正規部15は再生画像信号G1(i,j,
k)を正規化する。
The image regularization unit 15 reproduces the reproduced image signal G 1 (i, j,
k) is normalized.

画像エントロピー測定部16は画像正規部15
で正規化された信号G2(i,j,k)から画像エ
ントロピーA(x)を測定する。
The image entropy measurement unit 16 is the image normalization unit 15
The image entropy A(x) is measured from the signal G 2 (i, j, k) normalized by .

画像鮮鋭度表示部17は画像エントロピーA(x)
から画像鮮鋭度Z(x)を算出し出力する。画像最適
化部18は、画像鮮鋭度Z(x)が最大になるパラメ
ータxnaxを求める。
Image sharpness display section 17 shows image entropy A(x)
Image sharpness Z(x) is calculated from and output. The image optimization unit 18 determines the parameter x nax that maximizes the image sharpness Z(x).

そして、このパラメータ値x=xnaxを適用した
点拡がり関数をフーリエ変換する。このフーリエ
変換された点拡がり関数と原画像信号D(i,j)
をデコンボリユーシヨンして最適再生画像信号
G1(i,j,x=xnax)を得て、画像メモリ13
の再生画像信号メモリ領域13bに格納する。
Then, the point spread function to which this parameter value x=x nax is applied is subjected to Fourier transformation. This Fourier-transformed point spread function and the original image signal D(i,j)
Optimal reproduction image signal by deconvolution
G 1 (i, j, x=x nax ) is obtained and the image memory 13
The reproduced image signal is stored in the reproduced image signal memory area 13b.

次にこの実施例の動作について説明する。 Next, the operation of this embodiment will be explained.

第2図において物体1は未知の回転数xで一定
に回転している。この回転数は、物体1から画像
信号を取得する際に条件となるパラメータであ
る。
In FIG. 2, object 1 is constantly rotating at an unknown rotational speed x. This rotation speed is a parameter that is a condition when acquiring an image signal from the object 1.

初めに超音波発振器5と画像信号入力部11を
スケール6の最上部に配置する。そして超音波発
振器5は物体1が1回転する間に超音波を所定時
間放射する。物体1から反射された反射波を画像
信号として画像信号入力部11へ入力する。1回
転している間に、m個のデータを収集し、ホログ
ラム面の1行目のm個の画素データを収集する。
このようにしてホログラム面の1行目の画素の情
報となる画像信号が取得される。この信号入力方
法は、電波通信分野において用いられている合成
開口法の概念を応用したものである。
First, the ultrasonic oscillator 5 and the image signal input section 11 are placed at the top of the scale 6. The ultrasonic oscillator 5 emits ultrasonic waves for a predetermined period of time while the object 1 rotates once. A reflected wave reflected from the object 1 is input as an image signal to an image signal input section 11. During one rotation, m pieces of data are collected, and m pieces of pixel data on the first row of the hologram surface is collected.
In this way, an image signal serving as information on the pixels in the first row on the hologram surface is obtained. This signal input method is an application of the concept of the synthetic aperture method used in the field of radio communications.

次に超音波発振器5は高さ方向にn分割された
移動距離Dだけ下方に移動する。そしてホログラ
ム面の1行目と同様にして2行目の各画素の情報
となる画像信号を取得する。このように超音波発
振器5と画像信号入力部11をn−1回下方に移
動させる毎に画像信号を取得することにより、n
行m列ホログラム面のn×m個の画素の情報が取
得される。
Next, the ultrasonic oscillator 5 moves downward by a moving distance D divided by n in the height direction. Then, in the same manner as in the first row of the hologram surface, image signals serving as information for each pixel in the second row are acquired. In this way, by acquiring an image signal every time the ultrasonic oscillator 5 and the image signal input section 11 are moved downward n-1 times, n
Information on n×m pixels on the hologram surface in rows and m columns is acquired.

そしてこのようにして取得された画像信号は画
像信号入力部11で連続的な電気信号に変換され
る。この電気信号はA/D変換器12で全システ
ムの処理速度により定められる適当なサンプリン
グ周期により、階調8ビツトで量子化された離散
的な電気信号に変換される。この量子化された離
散信号は各々n行m列のホログラム面の各画素の
情報として、画像メモリ13の原画像信号メモリ
領域13aに記憶される。こうして、物体1の像
がフーリエ変換されたn行m列のホログラム面の
n×m個の各画素の情報として取得される。この
記憶された信号を原画像信号D(i,j)とする。
ここでD(i,j)及び2次元配列要素i,jは
階調8ビツトの場合、0≦D(i,j)≦255、1
≦i≦n、1≦j≦mでi,j,D(i,j)は
整数である。この原画像信号D(i,j)は画像
再生部11で画像信号を取得する際条件となるパ
ラメータxに適当な値x1を適用して作られるフ
ーリエ変換された点拡がり関数との相関演算をす
ることによつて再生画像信号G1(i,j,x=
x1)に変換される。そしてこの再生画像信号G1
(i,j,x=x1)は画像メモリ13の再生画像
信号メモリ領域13bに格納される。この再生画
像信号G1(i,j,x=x1)によりn行m列の再
生画像が構成される。
The image signal thus obtained is converted into a continuous electrical signal by the image signal input section 11. This electrical signal is converted by the A/D converter 12 into a discrete electrical signal quantized with 8-bit gradations at an appropriate sampling period determined by the processing speed of the entire system. This quantized discrete signal is stored in the original image signal memory area 13a of the image memory 13 as information for each pixel on the hologram surface of n rows and m columns. In this way, the image of the object 1 is obtained as information on each n×m pixel of the hologram plane of n rows and m columns, which has been subjected to Fourier transformation. This stored signal is referred to as an original image signal D(i,j).
Here, D(i,j) and two-dimensional array elements i,j have 8-bit gradation, 0≦D(i,j)≦255, 1
≦i≦n, 1≦j≦m, and i, j, and D (i, j) are integers. This original image signal D (i, j) is subjected to a correlation calculation with a Fourier-transformed point spread function created by applying an appropriate value x1 to the parameter x, which is a condition when acquiring an image signal in the image reproduction unit 11. By doing so, the reproduced image signal G 1 (i, j, x=
x1). And this reproduced image signal G 1
(i, j, x=x1) is stored in the reproduced image signal memory area 13b of the image memory 13. This reproduced image signal G 1 (i, j, x=x1) constitutes a reproduced image of n rows and m columns.

この再生画像信号G1(i,j,x=x1)は画像
正規化部15で各々2次元分布確率密度関数に正
規化される。これは再生画像信号G1(i,j,x
=x1)各々を合計した値で各信号G1(i,j,x
=x1)を除算した値として求められる。この値
を再生画像正規化信号G2(i,j,x=x1)とす
ると次の式のようになる。
The reproduced image signals G 1 (i, j, x=x1) are each normalized into a two-dimensional distribution probability density function by the image normalization unit 15. This is the reproduced image signal G 1 (i, j, x
= x1) Each signal G 1 (i, j, x
= x1). Letting this value be the reproduced image normalized signal G 2 (i, j, x=x1), the following equation is obtained.

このようにして求められた再生画像正規化信号
G2(i,j,x=x1)は0≦G2(i,j,x=
x1)≦1に確率分布する。
The reproduced image normalized signal obtained in this way
G 2 (i, j, x=x1) is 0≦G 2 (i, j, x=
The probability distribution is x1)≦1.

この再生画像正規化信号G2(i,j,x=x1)
から画像エントロピー測定部16は画像エントロ
ピーA(x=x1)を算出する。この画像エントロ
ピーA(x=x1)とは、再生された画面において
画像座標を変数とした確率密度関数の拡散を表わ
す度合(画像情報拡散度)、たとえば画像の不鮮
明さ、ボケ具合を表わす値である。この確率拡散
度は情報量のエントロピーの概念を応用して評価
される。この画像エントロピーA(x=x1)は各
再生画像正規化信号G2(i,j,x=x1)と、こ
の信号値の対数値とを乗算した値の全信号につい
ての合計し、正負符号を反転したとして求めら
れ、次の式のようになる。
This reproduced image normalized signal G 2 (i, j, x=x1)
From this, the image entropy measuring unit 16 calculates the image entropy A (x=x1). This image entropy A (x = x1) is a value that represents the degree of diffusion of a probability density function with image coordinates as a variable on the reproduced screen (image information diffusion degree), for example, the degree of blurring or blurring of the image. be. This probability diffusivity is evaluated by applying the concept of entropy of information. This image entropy A (x = x1) is the sum of the values obtained by multiplying each reproduced image normalized signal G 2 (i, j, x = x1) by the logarithm of this signal value for all signals, and the sign is It is obtained by inverting , and becomes as follows.

A(x=x1)=−o Σi=1 n Σi=1 G2(i,j,x=x1)logG2(i,j,x=x1) ただしG2(i,j,x=x1)=0のときには、
logG2(i,j,x=x1)≦0と定める。ここで、
n行m列の再生画面において求められる画像エン
トロピーA(x)の数値範囲は画像信号の離散化条件
により定められ、この場合は、0≦A(x)≦lognm
となる。これは画像エントロピーA(x)が最小、す
なわち再生画面内の1つの画素に確率が集中し、
この画素における再生画像正規化信号G2(iO,
jO,x)が1のときには、上式によつて画像エ
ントロピーA(x)は0になる。また画像エントロピ
ーA(x)が最大、すなわち再生画面全体に均一に
1/(n×m)で確率が分布しているときには、
画像エントロピーA(x)はlognmとなる。
A (x=x1)=- o Σ i=1 n Σ i=1 G 2 (i, j, x=x1) logG 2 (i, j, x=x1) However, G 2 (i, j, x= When x1)=0,
Set logG 2 (i, j, x=x1)≦0. here,
The numerical range of the image entropy A(x) found in the reproduction screen of n rows and m columns is determined by the discretization condition of the image signal, and in this case, 0≦A(x)≦lognm
becomes. This means that the image entropy A(x) is minimum, that is, the probability is concentrated in one pixel in the playback screen,
The reproduced image normalized signal G 2 (iO,
When jO,x) is 1, the image entropy A(x) becomes 0 according to the above equation. Furthermore, when the image entropy A(x) is maximum, that is, the probability is uniformly distributed over the entire playback screen as 1/(n×m),
The image entropy A(x) is lognm.

このようにして得られた画像エントロピーA
(x=x1)は、画像鮮鋭度表示部17において画
像鮮鋭度Z(x=x1)に変換され出力される。こ
の画像鮮鋭度Z(x)は、画像の鮮鋭さの度合、すな
わち焦点整合の調節具合を示す値であり、画像エ
ントロピーA(x)に比例した画像のボケ具合を表わ
す画像のボケ度と逆比例する値である。この画像
鮮鋭度Z(x=x1)は、離散化の条件により定め
られた画像エントロピーA(x=x1)の最大値
lognmを利用して次の式のように表わされる。
The image entropy A obtained in this way
(x=x1) is converted into image sharpness Z (x=x1) by the image sharpness display section 17 and output. This image sharpness Z(x) is a value that indicates the degree of sharpness of the image, that is, the degree of adjustment of focus alignment, and is the opposite of the degree of blurring of the image, which indicates the degree of blurring of the image that is proportional to the image entropy A(x). It is a proportional value. This image sharpness Z (x = x1) is the maximum value of image entropy A (x = x1) determined by the discretization conditions.
It can be expressed as the following formula using lognm.

Z(x=x1)=1/lognm ・{lognm−A(x=x1)} 上式から解かれるように画像鮮鋭度Z(x=
x1)は0,1の範囲内に規格化された値になる。
画像鮮鋭度Z(x)が最大の場合には適正に焦点整合
が行なわれている鮮鋭な画像となる。画像最適化
部18は画像鮮鋭度Z(x)が最大になる最適パラメ
ータxnaxを求める。画像鮮鋭度Z(x)は画像信号を
取得する際条件となるパラメータxの関数で、こ
のパラメータ値がxnaxのとき、画像鮮鋭度Z(x
=xnax)は最大になる。このことから画像鮮鋭度
Z(x)をパラメータxで差分した値が0になつたと
き、または0に近似するようにパラメータx値を
逐次変化させる。
Z(x=x1)=1/lognm ・{lognm−A(x=x1)} As solved from the above equation, image sharpness Z(x=
x1) is a value normalized within the range of 0 and 1.
When the image sharpness Z(x) is maximum, a sharp image is obtained in which focus alignment is properly performed. The image optimization unit 18 determines the optimal parameter x nax that maximizes the image sharpness Z(x). Image sharpness Z(x) is a function of parameter x, which is a condition when acquiring an image signal. When this parameter value is x nax , image sharpness Z(x
= x nax ) is maximized. From this, the parameter x value is successively changed so that the value obtained by subtracting the image sharpness Z(x) by the parameter x becomes 0 or approximates 0.

ΔZ(x)/ΔX=0 そして上式が成立または近似的成立、すなわち
|Δz/Δx|<ε;εが十分に小さいときのパラ
メータ値を最適パラメータ値xnaxとして画像再生
部14に出力する。画像再生部14では、このパ
ラメータ値x=xnaxを適用した点拡がり関数をフ
ーリエ変換する。そして、画像メモリ13の原画
像信号メモリ領域13aに記憶されている原画像
信号D(i,j)を読み出し、この読み出された
原画像信号D(i,j)と点拡がり関数をデコン
ボリユーシヨンして最適再生画像信号G1(i,
j,x=nax)を得る。そしてこの最適再生画像
信号G1(i,j,x=nax)を画像メモリ13の再
生画像信号メモリ領域13bに格納する。
ΔZ(x)/ΔX=0 Then, the parameter value when the above equation holds or approximately holds, that is, |Δz/Δx|<ε; ε is sufficiently small, is output to the image reproduction unit 14 as the optimal parameter value x nax . . The image reproduction unit 14 performs Fourier transform on the point spread function to which this parameter value x=x nax is applied. Then, the original image signal D(i,j) stored in the original image signal memory area 13a of the image memory 13 is read out, and the read original image signal D(i,j) and the point spread function are decombined. The optimum reproduced image signal G 1 (i,
j, x = nax ). Then, this optimum reproduced image signal G 1 (i, j, x= nax ) is stored in the reproduced image signal memory area 13b of the image memory 13.

この最適再生画像信号G1(i,j,x=nax)に
対応する画像鮮鋭度Z(x=xnax)が、画像正規
化部15、画像エントロピー測定部16、画像鮮
鋭度表示部17を経て求められる。
The image sharpness Z (x=x nax ) corresponding to this optimal reproduced image signal G 1 (i, j, x= nax ) is determined by the image normalization section 15 , image entropy measurement section 16 , and image sharpness display section 17 . It is sought after.

この画像鮮鋭度Z(x=xnax)が画像最適化部
18に供給されると、画像最適化部18は最適パ
ラメータ値xnaxと画像鮮鋭度Z(x=xnax)を出
力するとともに、最適再生画像信号G1(i,j,
x=xnax)を画像メモリ13から読み出し出力す
る。
When this image sharpness Z (x=x nax ) is supplied to the image optimization unit 18, the image optimization unit 18 outputs the optimal parameter value x nax and the image sharpness Z (x=x nax ), and Optimal reproduced image signal G 1 (i, j,
x=x nax ) is read out from the image memory 13 and output.

以上説明したように1回の測定で物体からの超
音波の反射として入力される画像信号を交換して
2次元的なホログラム面を構成する原画像信号と
して記憶する。この原画像信号に画像信号を取得
する際条件となるパラメータ値を適用して、再生
画像信号が構成される。そして再生画像信号のパ
ラメータ値を変化させて、最適再生画像信号を求
めるものである。このため原画像信号を用いてパ
ラメータ値を数値的に変化させ、得られる再生画
像信号を解析することによつて、容易に未知であ
つた画像信号取得の際条件となるパラメータの値
を測定できる。またこの時、最適再生画像信号も
得ることができる。
As explained above, in one measurement, image signals inputted as reflections of ultrasonic waves from an object are exchanged and stored as original image signals constituting a two-dimensional hologram surface. A reproduced image signal is constructed by applying parameter values that are conditions for acquiring an image signal to this original image signal. Then, the optimum reproduced image signal is obtained by changing the parameter values of the reproduced image signal. Therefore, by numerically changing parameter values using the original image signal and analyzing the resulting reproduced image signal, it is possible to easily measure the values of unknown parameters that are the conditions for image signal acquisition. . Moreover, at this time, an optimal reproduced image signal can also be obtained.

なお、一実施例では、画像エントロピーを焦点
整合の度合に比例した値となる画像鮮明度に変換
し、この画像鮮明度が最大になるように画像信号
取得の際条件となるパラメータを変化させてい
た。しかしこの発明においては、焦点整合の度合
と逆比例する関係にある画像エントロピーが最小
になるようにパラメータを変化させればこの画像
エントロピーが最小となつた最適パラメータを適
用することにより最適再生画像信号を得ることが
できる。すなわち、画像エントロピーを焦点整合
度合に比例し規格化された値に変換する必要がな
い場合には、画像鮮鋭度表示部を除去し、画像最
適化部で画像エントロピーが最小になるようにパ
ラメータを変化させればよい。
In one embodiment, image entropy is converted to image clarity, which is a value proportional to the degree of focus matching, and parameters that are conditions for image signal acquisition are changed so that this image clarity is maximized. Ta. However, in this invention, if the parameters are changed so that the image entropy, which is inversely proportional to the degree of focus matching, is minimized, the optimal reproduced image signal is obtained by applying the optimal parameters that minimize the image entropy. can be obtained. In other words, if it is not necessary to convert the image entropy into a standardized value proportional to the degree of focus alignment, the image sharpness display section is removed and the image optimization section sets the parameters so that the image entropy is minimized. Just change it.

また一実施例では物体から得られる画像信号を
2次元的なホログラム面を構成する原画像信号と
して記憶していた。しかし本発明においては、1
次的なホログラムとして原画像信号を記憶させる
こともできる。
Further, in one embodiment, an image signal obtained from an object is stored as an original image signal constituting a two-dimensional hologram surface. However, in the present invention, 1
It is also possible to store the original image signal as a subsequent hologram.

また一実施例ではA/D変換器で画像信号を階
調8ビツトで量子化された離散信号に変換してい
た。しかし本発明では、画像信号のレベルに応じ
て適切な階調で量子化してもよい。
Further, in one embodiment, an A/D converter converts the image signal into a discrete signal quantized with 8-bit gradation. However, in the present invention, quantization may be performed at an appropriate gradation depending on the level of the image signal.

さらに本発明においては、画像の焦点整合の度
合が測定できれば、画像正規化の操作や、画像エ
ントロピーの定義を若干変形させても、一実施例
と同様に動作させることができる。一実施例で
は、再生画像信号を正規化する操作として全ての
再生画像信号の合計和で各再生画像信号を除算し
ていた。しかし本発明では各再生画像信号の全て
の再生画像信号に対する拡散状態を知ることがで
きればよい。たとえば、各再生画像信号のうちで
信号値の最小なものを求め、この最小な再生画像
信号で各再生画像信号を減算する。この減算値を
この減算値の再生画面全体における合計和で除算
して再生画像正規化信号を求めることもできる。
そしてこの再生画像正規化信号を用いて画像エン
トロピーを算出すると、最小再生画像信号値以下
の信号値は除去されるため、画像エントロピーの
変化しうる範囲が拡大できる。
Furthermore, in the present invention, as long as the degree of focus alignment of an image can be measured, the same operation as in the embodiment can be achieved even if the image normalization operation and the definition of image entropy are slightly modified. In one embodiment, each reproduced image signal is divided by the total sum of all reproduced image signals as an operation to normalize the reproduced image signal. However, in the present invention, it is only necessary to know the diffusion state of each reproduced image signal with respect to all reproduced image signals. For example, the minimum signal value is found among the reproduced image signals, and this minimum reproduced image signal is subtracted from each reproduced image signal. The reproduced image normalized signal can also be obtained by dividing this subtracted value by the total sum of the subtracted values over the entire reproduced screen.
When image entropy is calculated using this reproduced image normalized signal, signal values less than the minimum reproduced image signal value are removed, so the range in which image entropy can change can be expanded.

また、一実施例では、画像鮮鋭度Zを画像エン
トロピーAの離散化の条件により定められる最大
値lognmを利用して規格化していた。
Further, in one embodiment, the image sharpness Z is normalized using the maximum value lognm determined by the discretization conditions of the image entropy A.

しかし本発明では、求めるべき画像の焦点整合
の度合に応じて画像鮮鋭度Zの算出式を変形して
もよい。たとえば、得られた画像鮮鋭度Zを人間
の感覚に合つた心理的画像鮮鋭度Z1に変形するこ
ともできる。これは、人間の感覚を表わす関数の
変数として画像鮮鋭度Zを用いて心理的画像鮮鋭
度Z1を次の式のようにして求める。
However, in the present invention, the formula for calculating the image sharpness Z may be modified depending on the degree of focus matching of the image to be determined. For example, the obtained image sharpness Z can be transformed into a psychological image sharpness Z1 that suits human senses. This uses the image sharpness Z as a variable of a function representing human sensation to calculate the psychological image sharpness Z 1 using the following formula.

Z1=−logZ このように得られた結果を出力しても、この発
明の目的を達成できる。
Z 1 =−logZ Even if the result obtained in this manner is output, the object of the present invention can be achieved.

さらに一実施例では画像信号取得の際条件とな
るパラメータが物体の回転数の1つであつた。し
かしこの発明は、このパラメータが複数個である
場合においても適用できる。これは、この複数の
パラメータx1,x2,x3,…,xhを原画像信号に
適用して再生画像信号G1(x1,x2,x3,…,xh)
に変換する。ここで複数のパラメータをX=
(x1,x2,x3,…,xh)tと表わす。
Furthermore, in one embodiment, one of the parameters serving as a condition for acquiring an image signal was the rotation speed of the object. However, the present invention can be applied even when there are a plurality of parameters. This applies these multiple parameters x1, x2, x3, ..., xh to the original image signal to generate a reproduced image signal G 1 (x1, x2, x3, ..., xh)
Convert to Here, multiple parameters are
(x1, x2, x3, ..., xh) Expressed as t .

そして再生画像信号G1(x→)から画像鮮鋭度Z
(x→)が求められ、この画像鮮鋭度が最大になる
パラメータX→naxを次の式のようにして求める。
(ここでtは、転置行列をしめす。) gradZ(X→nax)=0→ ただし、grad=(d/dx1,d/dx2,d/dx3,…, d/dxh,),0→はゼロベクトル このようにして求められたパラメータx→naxは、
最適パラメータとして画像再生部に出力される。
この最適パラメータを適用した再生画像信号から
求められた画像エントロピーは最小値になる。
Then, from the reproduced image signal G 1 (x→), the image sharpness Z
(x→) is determined, and the parameter X→ nax that maximizes the image sharpness is determined using the following formula.
(Here, t indicates the transposed matrix.) gradZ (X → nax ) = 0 → However, grad = (d/dx1, d/dx2, d/dx3, ..., d/dxh,), 0 → is zero Vector The parameter x → nax obtained in this way is
It is output to the image reproduction section as the optimum parameter.
The image entropy obtained from the reproduced image signal to which this optimal parameter is applied becomes the minimum value.

次に本発明の他の実施例について説明する。一
実施例では、物体からの超音波の反射波を画像と
して導入していた。しかし他にも光の物体からの
反射波の位相振幅情報を画像信号として導入する
方式や、不可視光による不可視パターン情報を画
像信号として導入したり、物体を表現する電気信
号等を媒体として画像信号を導入する方式なども
考えることができ、本実施例においては、物体に
光を照射し、その光の反射波を画像信号として導
入する方式について説明する。
Next, other embodiments of the present invention will be described. In one embodiment, reflected waves of ultrasonic waves from an object are introduced as images. However, there are other methods in which the phase amplitude information of the reflected wave from an optical object is introduced as an image signal, invisible pattern information by invisible light is introduced as an image signal, and an image signal is generated using an electric signal representing the object as a medium. It is also possible to consider a method of introducing light, and in this embodiment, a method of irradiating an object with light and introducing a reflected wave of the light as an image signal will be described.

この電気信号は画像信号入力部で光電変換素子
により連続的な電気信号に変換される。この電気
信号は、画像入力部で光の3原色、すなわち赤、
緑、青(以下、R,G,Bと称する。)の各周波
数帯域に応じたバンドバスフイルタにより各原色
ごとの画像信号に分解される。各画像信号は各々
一実施例と同様にしてA/D変換器で量子化され
た離散的の電気信号の原画像信号として画像メモ
リに記憶される。そして画像再生部は各原画像信
号に画像信号取得の際条件となるパラメータを適
用して、各原画像信号を各々再生画像信号に変換
する。各再生画像信号から一実施例と同様にして
R成分画像鮮鋭度、G成分画像鮮鋭度、B成分画
像鮮鋭度が求められる。各成分画像鮮鋭度は第3
図に示すように3次元(ユークリツド)空間を構
成する。そしてカラー画像鮮鋭度Zcolor(x)は、こ
の3次元空間の1点として決定され、この点と原
点とのユークリツド距離、又はユークリツド距離
2乗などとして評価される。このカラー画像鮮鋭
度Zcolor(x)を画像最適化部に出力する。そして画
像最適化部でこのカラー画像鮮鋭度が最大となる
最適パラメータが求められ、一実施例と同様にし
て最適再生画像信号が出力される。
This electrical signal is converted into a continuous electrical signal by a photoelectric conversion element at the image signal input section. This electrical signal is input to the image input unit to produce the three primary colors of light, namely red,
The image signal is decomposed into image signals for each primary color by bandpass filters corresponding to each frequency band of green and blue (hereinafter referred to as R, G, and B). Each image signal is stored in the image memory as an original image signal of a discrete electric signal quantized by an A/D converter in the same manner as in the embodiment. Then, the image reproducing unit converts each original image signal into a reproduced image signal by applying parameters serving as conditions for image signal acquisition to each original image signal. The R component image sharpness, the G component image sharpness, and the B component image sharpness are determined from each reproduced image signal in the same manner as in one embodiment. Each component image sharpness is the third
As shown in the figure, a three-dimensional (Euclidean) space is constructed. The color image sharpness Zcolor(x) is determined as one point in this three-dimensional space, and evaluated as the Euclidean distance between this point and the origin, or the square of the Euclidean distance. This color image sharpness Zcolor(x) is output to the image optimization section. Then, the image optimization section determines the optimal parameters that maximize the color image sharpness, and outputs the optimal reproduced image signal in the same manner as in the first embodiment.

〔発明の効果〕〔Effect of the invention〕

本発明は一回の測定で画像対象から取得した画
像信号を記憶して、この記憶した画像信号に画像
信号取得の際条件となるパラメータを適用し、得
られた信号から画像エントロピーを求め、この画
像エントロピーが最小になるようにパラメータを
数値的に変化させることにより、一回の測定で取
得した画像信号から、画像エントロピーが最小と
なる。すなわち焦点整合が適正に行なわれた画像
信号をパラメータの数値処理により得ることがで
きるものである。
The present invention stores an image signal acquired from an image target in one measurement, applies parameters that are conditions for image signal acquisition to this stored image signal, calculates image entropy from the obtained signal, and By numerically changing the parameters so that the image entropy is minimized, the image entropy is minimized from the image signal acquired in one measurement. That is, an image signal with proper focus matching can be obtained by numerically processing parameters.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の構成を示すブロツ
ク図、第2図は本発明の実施例の原理を説明する
ための測定装置図、第3図は本発明の他の実施例
の原理を説明するためのベクトル図である。 符号の説明、1…物体、2…ターンテーブル、
3…棒、5…超音波発振器、6…スケール、10
…入力回路部、11…画像再生部、12…A/D
変換器、13…画像メモリ、14…画像再生部、
15…画像正規化部、16…画像エントロー測定
部、17…画像鮮鋭度表示部、18…画像最適化
部。
Fig. 1 is a block diagram showing the configuration of an embodiment of the present invention, Fig. 2 is a diagram of a measuring device for explaining the principle of the embodiment of the invention, and Fig. 3 is the principle of another embodiment of the invention. It is a vector diagram for explaining. Explanation of symbols, 1...object, 2...turntable,
3... Rod, 5... Ultrasonic oscillator, 6... Scale, 10
...input circuit section, 11...image reproduction section, 12...A/D
Converter, 13...image memory, 14...image reproduction section,
15... Image normalization section, 16... Image entrance measurement section, 17... Image sharpness display section, 18... Image optimization section.

Claims (1)

【特許請求の範囲】 1 画像対象から取得される画像信号を量子化さ
れた離散信号である原画像信号に変換して記憶す
る入力回路部と、 画像信号を取得する際条件となるパラメータを
適用して作られた点拡がり関数と、前記原画像信
号との相関をとつて原画像信号を再生画像信号に
変換して前記入力回路部に記憶させる画像再生部
と、 この画像再生部の再生画像信号を正規化する画
像正規化部と、 この画像正規化部で正規化された信号の信号値
と、この信号値の対数値とを乗算し得られる値の
合計和から画像エントロピーを測定する画像エン
トロピー測定部と、 前記パラメータ値を変化させて前記画像エント
ロピーが最小となるパラメータ値の最適値を求
め、この最適値を前記画像再生部に出力する画像
最適化部とを有し、 前記パラメータ値の最適値により原画像信号か
ら変換され画像エントロピーを最小にする再生画
像信号を出力することを特徴とする画像信号処理
装置。
[Claims] 1. An input circuit unit that converts an image signal obtained from an image object into an original image signal that is a quantized discrete signal and stores it, and applies parameters that are conditions for obtaining the image signal. an image reproducing section that calculates a correlation between the point spread function created by the method and the original image signal, converts the original image signal into a reproduced image signal, and stores the converted image signal in the input circuit section; and a reproduced image of the image reproducing section. an image normalization section that normalizes the signal; and an image that measures the image entropy from the sum of the values obtained by multiplying the signal value of the signal normalized by the image normalization section and the logarithm of this signal value. an entropy measurement unit; and an image optimization unit that changes the parameter value to find an optimal parameter value that minimizes the image entropy, and outputs this optimal value to the image reproduction unit, An image signal processing device that outputs a reproduced image signal that is converted from an original image signal using an optimal value of and minimizes image entropy.
JP57125898A 1982-07-21 1982-07-21 Processor of picture signal Granted JPS5917660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57125898A JPS5917660A (en) 1982-07-21 1982-07-21 Processor of picture signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57125898A JPS5917660A (en) 1982-07-21 1982-07-21 Processor of picture signal

Publications (2)

Publication Number Publication Date
JPS5917660A JPS5917660A (en) 1984-01-28
JPH0461393B2 true JPH0461393B2 (en) 1992-09-30

Family

ID=14921634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57125898A Granted JPS5917660A (en) 1982-07-21 1982-07-21 Processor of picture signal

Country Status (1)

Country Link
JP (1) JPS5917660A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19803694C1 (en) * 1998-01-30 1999-04-22 Kostal Leopold Gmbh & Co Kg Method of detecting objects on a transparent plate, e.g. a motor vehicle windscreen
KR101159495B1 (en) * 2004-03-11 2012-06-22 이코스비젼 시스팀스 엔.브이. Methods and apparatus for wavefront manipulations and improved 3-d measurements
JP4496149B2 (en) * 2005-09-26 2010-07-07 株式会社日立国際電気 Dimensional measuring device

Also Published As

Publication number Publication date
JPS5917660A (en) 1984-01-28

Similar Documents

Publication Publication Date Title
CN110646810B (en) Speckle optimization compressed sensing ghost imaging method and system
US6229913B1 (en) Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5521695A (en) Range estimation apparatus and method
US5870179A (en) Apparatus and method for estimating range
US7844079B2 (en) System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
Ma et al. Numerical reconstruction of digital holograms for three-dimensional shape measurement
EP1958158B1 (en) Method for detecting streaks in digital images
CN109086675B (en) Face recognition and attack detection method and device based on light field imaging technology
KR20080056721A (en) Method and system for object reconstruction
JP2004518312A (en) Method and apparatus for increasing data resolution
WO2000052633A1 (en) System for recovery of degraded images
CN111222472B (en) Face recognition method based on structural light frequency domain characteristics
JP2003515180A (en) System and method for recovering wavefront phase information
JPH0461393B2 (en)
CN112702486A (en) High-speed coherent imaging camera based on electrically adjustable lens and phase recovery method
CN115307577B (en) Target three-dimensional information measurement method and system
Damian et al. The evaluation of single-pixel camera resolution
JPH03156306A (en) Direct measurement of volume of three- dimensional characteristic part in binocular stereo image
CN112308781B (en) Single image three-dimensional super-resolution reconstruction method based on deep learning
JP3581889B2 (en) Stereoscopic recognition method and apparatus
JPS62115307A (en) Method and instrument for measuring displacement distribution in real time
CN117291982A (en) Moving target positioning method based on single-pixel imaging under complex background
Feng et al. Learning Photometric Feature Transform for Free-form Object Scan
Wu et al. Single-Pixel Imaging for Partially Occluded Objects
Russ Image Processing and Measurement