JPH03269680A - Method for processing three-dimensional display - Google Patents

Method for processing three-dimensional display

Info

Publication number
JPH03269680A
JPH03269680A JP2069440A JP6944090A JPH03269680A JP H03269680 A JPH03269680 A JP H03269680A JP 2069440 A JP2069440 A JP 2069440A JP 6944090 A JP6944090 A JP 6944090A JP H03269680 A JPH03269680 A JP H03269680A
Authority
JP
Japan
Prior art keywords
image
depth
parallax
pseudo color
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2069440A
Other languages
Japanese (ja)
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2069440A priority Critical patent/JPH03269680A/en
Publication of JPH03269680A publication Critical patent/JPH03269680A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain executing display with depth perception to a picture by giving pseudo color correction based on color aberration corresponding to distance in a depth direction. CONSTITUTION:Various aspects are fetched by a camera input part 1 having a two-lens camera and the distribution of the parallax quantity of respective objects within fetched images is found by a parallax quantity detecting and processing part 2. Pseudo color conversion is given to a picture inputted in a pseudo color converting and processing part 3 corresponding to the obtained parallax quantity. Picture information fetched by plural cameras at a three- dimensional display part 4 is reproduced and is displayed through a lenticular lens. That is, the parallax quantity of the respective objects is calculated at the parallax quantity detecting and processing part 2 to the picture fetched by the two-lens camera of the camera input part 1. Then, depth perception is made increased by giving pseudo color correction corresponding to a distance in a depth direction at the pseudo color converting and processing part 3.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、カラー画像処理分野において、特定の色相の
組み合わせを利用することで、奥行き知覚を高めるよう
にした立体表示処理方法に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a stereoscopic display processing method in the field of color image processing that enhances depth perception by utilizing a specific combination of hues. .

〔従来の技術〕[Conventional technology]

カメラ入力された画像情報の中で、忠実に色を再現する
ことは技術的な問題の一つとなっている。
One of the technical problems is faithfully reproducing colors in image information input by a camera.

たとえば、入力用のTVカメラの分光輝度特性や画像出
力用のカラー・イメージ・デイスプレー等を測定し、こ
れらが等しくなるようにディジタル処理を行って補正し
てやることが必要である。また、逆に人工的に強調した
り色を変えたりする表示があるや第12図は2人工衛星
からの色彩画像の偽色合成表示を説明する図である。人
工衛星から取り込まれた画像情報は地球局に受信され1
表示される。人工衛星からのカラーバンドの観測波長帯
とカラー・イメージ・デイスプレーの画像表示装置のR
,G、Bの特性とがずれているために。
For example, it is necessary to measure the spectral luminance characteristics of a TV camera for input, a color image display for image output, etc., and perform digital processing to correct them so that they are equal. On the other hand, there are displays that artificially emphasize or change colors. FIG. 12 is a diagram illustrating a false color composite display of color images from two artificial satellites. The image information captured from the satellite is received by the earth station.
Is displayed. Observation wavelength band of color band from artificial satellite and R of image display device of color image display
, G, and B are different from each other.

再生された色彩画像の色合いが、自然のものからはかけ
離れてしまう、衛星からの画像情報のバンド波長101
の順序を逆にして偽色合成表示102シたりして、地球
に送信されてきた日本付近の緑の植生103を赤く表示
したりする。これにより、緑の植生の分布の少ない領域
104とのコントラストがはっきりとし1画像からの解
析が容易になる。
Band wavelength 101 of the image information from the satellite where the hue of the reproduced color image is far from the natural one
The false color composite display 102 is performed by reversing the order of the images, and the green vegetation 103 near Japan that has been transmitted to the earth is displayed in red. As a result, the contrast with the area 104 with a small distribution of green vegetation becomes clear, and analysis from one image becomes easy.

この様に2偽色合威表示は1人間が判読したりする場合
の補助手段としては有効である。
In this way, the two false color combination display is effective as an auxiliary means when one person can read the image.

第13図は、白黒レントゲン像に対する擬似カラー表示
を説明する図である。レントゲン画像110は単バンド
の濃淡画像であるので、たとえば、肺中の病巣を見いだ
す場合には、相当の熟練を要する。また、2つの病巣が
お互いに重なり合う場合には、奥行き方向において、い
ずれかが手前にあるどうかについては1手術を施す必要
がある場合には、その開口部を決定する上で非常に大事
になる。即ち、予め濃淡の各レベルに特定の色を割り当
てたスケールを用意しておき、この色スケールによって
2表示すべき濃淡画像の個々の画素を対応する色で表示
するものである。このような擬似カラー変換を施したレ
ントゲン画像112を用いるともとの白黒濃淡画像では
認識しにくかった対象物が容易に認識できるようになり
、病巣等の発見に貢献する。しかしながら、M像の奥行
き方向の諸病巣の相対位置の把握に関しては問題を残し
ている。
FIG. 13 is a diagram illustrating pseudo-color display for a black-and-white X-ray image. Since the X-ray image 110 is a single-band grayscale image, considerable skill is required to find a lesion in the lungs, for example. In addition, if two lesions overlap each other, determining whether one of them is closer to the other in the depth direction is very important in determining the opening if surgery is required. . That is, a scale in which a specific color is assigned to each level of gradation is prepared in advance, and each pixel of a gradation image to be displayed in two is displayed in a corresponding color using this color scale. Using the X-ray image 112 subjected to such pseudo-color conversion, objects that were difficult to recognize in the original black-and-white gradation image can now be easily recognized, contributing to the discovery of lesions and the like. However, there remains a problem in understanding the relative positions of various lesions in the depth direction of the M image.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の擬似カラー変換技術は、2次元画像情報における
対象物のvl識向上を目指したものであり未だ3次元画
像情報に対する擬似カラー変換技術は見当たらない。
Conventional pseudo color conversion techniques are aimed at improving the VL recognition of objects in two-dimensional image information, and no pseudo color conversion technique for three-dimensional image information has yet been found.

本発明は、上記従来方法の問題点を解決し、奥行き方向
の距離に応じた色収差に基づく擬似カラー補正を施し1
画像に対する奥行き知覚効果を高めることを目的とする
The present invention solves the problems of the conventional method and performs pseudo color correction based on chromatic aberration depending on the distance in the depth direction.
The purpose is to enhance the depth perception effect for images.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は1本発明方法を実施するための基本構成である
。諸量観を2@カメラを有するカメラ入力部1より取り
込み、視差量検出処理部2において、取り込まれた映像
内の各対象物の視差量の分布を求める。得られた視差量
に応じて、擬似色変換処理部3で入力した画像に対して
擬似カラー変換を施す。立体表示部4で複数カメラより
取り込まれた画像情報はレンティキュラレンズを介して
再生表示される。
FIG. 1 shows a basic configuration for implementing the method of the present invention. Various quantities are taken in from a camera input unit 1 having a 2@ camera, and a parallax amount detection processing unit 2 calculates the distribution of the amount of parallax for each object in the taken video. The pseudo color conversion processing unit 3 performs pseudo color conversion on the input image according to the obtained amount of parallax. Image information captured by a plurality of cameras is reproduced and displayed on the stereoscopic display unit 4 via a lenticular lens.

〔作 用〕[For production]

本発明においては、カメラ入力部1の2眼カメラにより
取り込まれた画像に対して、視差量検出処理部2で各対
象物の視差量を算出し、奥行き方向の距離に応じた擬似
カラー色補正を擬似色変換処理部3で施して、奥行き知
覚を増大させる。
In the present invention, the parallax amount detection processing section 2 calculates the amount of parallax of each object for the image captured by the twin-lens camera of the camera input section 1, and performs pseudo-color correction according to the distance in the depth direction. is performed by the pseudo color conversion processing section 3 to increase depth perception.

従来技術において、2次元画像に擬似カラー変換を施し
た例は見られるものの、3次元画像に奥行き知覚を増大
させるための擬似カラー変換の例は見当たらない。
In the prior art, although there are examples of pseudo-color conversion applied to two-dimensional images, there are no examples of pseudo-color conversion applied to three-dimensional images to increase depth perception.

〔実施例] 第2図は、カメラ人力部と立体表示部とに関する説明図
である。諸量[11を複数カメラ12より取り込み、レ
ンティキュラレンズ13で複数のカメラからの情報を分
離再生する。レンティキュラレンズ13の微細構造14
は、レンズの1ピツチ当たりにカメラの数に応じて走査
線を周期的に配置している。
[Example] FIG. 2 is an explanatory diagram regarding a camera manual section and a stereoscopic display section. Various quantities [11 are taken in from a plurality of cameras 12, and the information from the plurality of cameras is separated and reproduced using a lenticular lens 13. Fine structure 14 of lenticular lens 13
In this method, scanning lines are arranged periodically according to the number of cameras per pitch of the lens.

第3図は93つの立体の相対位置を説明するための図で
ある。立方体219円柱22.三角錐23の相対位置は
カメラ側より、  29.28.27の順に配置しであ
る。また、三角雄側から眺めると像24.25.26の
ように見える。
FIG. 3 is a diagram for explaining the relative positions of 93 solids. Cube 219 Cylinder 22. The relative positions of the triangular pyramids 23 are arranged in the order of 29, 28, and 27 from the camera side. Also, when viewed from the triangular male side, it looks like images 24, 25, and 26.

第4図は、2@カメラを用いた場合の奥行き方向の深さ
を得るための原理を示す。3つの立体31、32.33
を2眼カメラ34から取り込む。その結果、立体32.
31.33の順にふくそう角3736、35は大きくな
る。各カメラに入力される画像を38.39に示す、左
のカメラからの画像と右のカメラからの画像との3つの
立体の相対的な位置にはずれが生しる。Wi像38にお
ける円柱31と三角錐33の相対圧M 40は画像39
での相対距離42に比べて長くなり、一方、Wi像38
の三角錐33と立方体32との相対距離41は1画像3
9での相対圧M 43に比べて短くなる。この2つの画
像に於ける物体間の相対距離の相違が視差量として求め
られる。
FIG. 4 shows the principle for obtaining the depth in the depth direction when 2@cameras are used. Three solids 31, 32.33
is captured from the twin-lens camera 34. As a result, the solid 32.
The congestion angles 3736 and 35 increase in the order of 31.33. The images input to each camera are shown in 38.39, and there is a deviation in the relative positions of the three solids of the image from the left camera and the image from the right camera. The relative pressure M 40 between the cylinder 31 and the triangular pyramid 33 in the Wi image 38 is the image 39
On the other hand, the relative distance 42 in Wi image 38
The relative distance 41 between the triangular pyramid 33 and the cube 32 is 1 image 3
The relative pressure M at 9 is shorter than that of 43. The difference in relative distance between the objects in these two images is determined as the amount of parallax.

一般に1人の奥行きに対する知覚度は1両眼600で奥
行きがΔD (604)だけ異なる対象物601と60
2とに対する識別がどれだけできるかで決まる。すなわ
ち、ΔD / D (605)で定義されている。
In general, one person's depth perception is 600 for each eye, and objects 601 and 60 whose depths differ by ΔD (604)
It depends on how well you can distinguish between 2 and 2. That is, it is defined as ΔD/D (605).

第5図は2色相と奥行き知覚との関係に関する説明図で
ある。第5図(B)図示の如<、RGBカラー空間を座
標変換し、H(色相)S(彩度)■(明度)空間を形成
する。H3V空間を用いることは、RGB空間で分離で
きなかった色成分を検討する場合に有効である。このH
3Vモデルにおいて、明度軸の原点は黒色BLで表し、
最大値は白色Wで表す、各色相での彩度Sは、明度Vに
比例する。第5図(A)は、赤の色相を基準にして1色
相を6等分(赤色、黄色、緑色、シアン。
FIG. 5 is an explanatory diagram regarding the relationship between two hues and depth perception. As shown in FIG. 5(B), the coordinates of the RGB color space are transformed to form an H (hue), S (saturation), and (brightness) space. Using the H3V space is effective when considering color components that cannot be separated using the RGB space. This H
In the 3V model, the origin of the brightness axis is represented by black BL,
The maximum value is represented by white W, and the saturation S of each hue is proportional to the brightness V. Figure 5 (A) shows one hue divided into six equal parts (red, yellow, green, cyan) based on the red hue.

青色、マゼンタ)シ、各色相における奥行き知覚の分布
を主観評価実験により求めた結果を示す。
The results of a subjective evaluation experiment of the distribution of depth perception in each hue (blue, magenta) are shown.

実験は、第6図図示の如く、液晶シャッタ一方式による
立体表示を被験者に行う方法で行った。
The experiment was conducted in such a way that the subject was given a three-dimensional display using a single liquid crystal shutter, as shown in FIG.

706に示すような正弦波パターンを色度信号パターン
発生器700によりつくり、60分の1秒だけ位相をず
らした左目用信号702.右目用信号703を立体表示
部701に送った0色度信号パターン発生器700から
同期信号704を液晶シャッター式眼鏡705に送り、
左右の目に独立に再生画像が入るようになっている。正
弦波の振幅707は、奥行き方向の深さに相当する。各
色相をこの正弦波にのせて実験をすすめた。
A sine wave pattern as shown in 706 is generated by the chromaticity signal pattern generator 700, and the left eye signal 702. is shifted in phase by 1/60th of a second. A synchronization signal 704 is sent from the 0 chromaticity signal pattern generator 700 that sent the right eye signal 703 to the stereoscopic display section 701 to the liquid crystal shutter type glasses 705.
The left and right eyes are configured to receive a reproduced image independently. The amplitude 707 of the sine wave corresponds to the depth in the depth direction. We conducted an experiment by placing each hue on this sine wave.

第5図(A)図示のグラフの縦軸は被験者から得られた
奥行き感度を表し、横細は色相を表す。
The vertical axis of the graph shown in FIG. 5(A) represents the depth sensitivity obtained from the subject, and the horizontal thin lines represent the hue.

図から明らかなように、各色相に対して、奥行き感度が
かなり異なっていることがわかる0色相2(緑色付近)
で奥行き感度は最も悪く0色相4(青色付近)で最もよ
い結果を得た0以上まとめると1色相2,1,0,3,
5.4の順に奥行き感度が変わることが示された。この
データをもとにして、2次元平面図に色相をいろいろと
組み合わせた図を2種類作成し、上記と同様に主観評価
実験を行った。第一の色相の組み合わせは、第5図(C
)図示の如く円の中心部より色相2,1゜0.3.5.
4の順に色の塗ったチャート43とした。その結果1円
の外側に比べて1円の中心部に最深部を知覚したとする
被験者が80%に達した。同様に、第5図(D)図示の
如く、チャート43と全く逆に色相(円中心部より、4
5.30.1.2)を組み合わせたチャート44を作成
した。その結果、被験者の75%は手前の頂点を有する
三角錐立体を知覚した。
As is clear from the figure, the depth sensitivity is quite different for each hue. 0 Hue 2 (near green)
The depth sensitivity was the worst and the best results were obtained with 0 hue 4 (near blue).Over 0 To summarize, 1 hue 2, 1, 0, 3,
It was shown that the depth sensitivity changes in the order of 5.4. Based on this data, we created two types of two-dimensional plan views with various combinations of hues, and conducted subjective evaluation experiments in the same manner as above. The first hue combination is shown in Figure 5 (C
) As shown in the diagram, the hue is 2.1° 0.3.5° from the center of the circle.
Chart 43 is colored in the order of 4. As a result, 80% of the subjects perceived the deepest part to be in the center of the circle compared to the outside of the circle. Similarly, as shown in FIG. 5(D), the hue (from the center of the circle, 4
Chart 44 was created by combining 5.30.1.2). As a result, 75% of the subjects perceived a triangular pyramid solid with the vertex in the foreground.

また同心円状の平面図形をデイスプレー上に表示して主
観評価実験を行った。各日は1色相O。
We also conducted a subjective evaluation experiment by displaying concentric planar figures on a display. Each day is 1 hue O.

60°、120°、180°、240°、300”に相
当する色を任意組み合わせた。なお、明度と彩度とは一
定とした。その結果、たとえば中心側から緑→マゼンタ
→青としたものと、中間側から青→マゼンタ→緑とした
ものとの如く組み合わせの順序を変えることにより、単
眼視観察で得られる奥行き知覚に違いが生した。
Colors corresponding to 60°, 120°, 180°, 240°, and 300" were arbitrarily combined.The brightness and saturation were kept constant.As a result, for example, green → magenta → blue from the center side. By changing the order of the combinations, such as blue → magenta → green from the middle side, a difference occurred in the depth perception obtained by monocular observation.

中心側からイエロー→マゼンタ→シアンとしたものと、
中間側からシアン→マゼンタ→イエローとしたものとの
場合には、視覚特性上強調効果が生しるだけとなった0
色相を一定の間隔で同心円状に組み合わせると、視覚特
性上一種の錯視が生しると思われた。
Yellow → magenta → cyan from the center side,
In the case of cyan → magenta → yellow from the middle side, only an emphasis effect was produced due to visual characteristics.
When hues are combined concentrically at regular intervals, a kind of optical illusion is thought to occur due to visual characteristics.

第7図は、入力したモノクロ立体画像に視差量に応じた
擬似カラー補正を施した例を説明する説明図である。第
7図(A)図示の51はモノクロ立体画像であり、視差
量に応じて、第7図(B)図示の如くカラー階調と視差
量との相関図55を作成する。モノクロ立体画像51に
おいては、いまだ各対象物の相互の距離感に乏しい問題
がある。
FIG. 7 is an explanatory diagram illustrating an example in which pseudo color correction is applied to an input monochrome stereoscopic image according to the amount of parallax. Reference numeral 51 shown in FIG. 7(A) is a monochrome stereoscopic image, and a correlation diagram 55 between color gradation and the amount of parallax is created as shown in FIG. 7(B) according to the amount of parallax. The monochrome stereoscopic image 51 still has the problem of poor sense of distance between objects.

そこで、視差量に応じて52.53.54の各対象物に
擬似色を付加する。その結果5第7図(C)図示の如く
奥行き知覚感が高まった。
Therefore, pseudo colors are added to each of the 52, 53, and 54 objects according to the amount of parallax. As a result, the depth perception was enhanced as shown in Figure 7 (C).

第8図は、奥行き方向の各物体の辺に対して色相変換を
施した場合の例である。入力したモノクロ立体画像51
の視差量に応じて、第7図図示の場合と同様に1色相変
換を原画像に施す、各辺に対しても色相変換を施す点が
、第7図図示の場合と異なる。その結果、奥行き知覚感
が、第7図図示の場合に比べて一層強くなった。
FIG. 8 is an example in which hue conversion is applied to the sides of each object in the depth direction. Input monochrome 3D image 51
The difference from the case shown in FIG. 7 is that, in accordance with the amount of parallax, one hue conversion is applied to the original image as in the case shown in FIG. 7, and hue conversion is also applied to each side. As a result, the depth perception became even stronger than in the case shown in FIG.

第9図は9人の胸部のレントゲン像に関する説明図であ
る。レントゲン画(&61内の僅かな:IA淡には、基
本的には、擬似色変換が施されている。
FIG. 9 is an explanatory diagram of X-ray images of the chests of nine people. The X-ray image (the slight IA light in &61 is basically subjected to pseudo-color conversion.

しかしながら、奥行き方向の肋骨、背骨等の相対位置に
ついては、濃淡画像からは必ずしも十分ではない、そこ
で、ある程度の濃淡画像情報を元に第9図(B)図示の
如く線形に奥行き度の変換を行った後、第9図(C)図
示の如く、奥行き度に応じて色相を当てはめる。第9図
(D)は元のレントゲン画像に擬似色変換を施した画像
の例をしめす0人の胸部付近の奥行き方向の構造65.
66゜67、68.69.70.71が9色相の違いに
より、相対的に1強調されているために、111部付近
の欠格部位を捜すのには、都合がよい。
However, the relative positions of ribs, spine, etc. in the depth direction are not necessarily sufficient from the gray scale image.Therefore, based on a certain amount of gray scale image information, the depth is linearly converted as shown in Figure 9(B). After that, as shown in FIG. 9(C), a hue is applied according to the degree of depth. FIG. 9(D) shows an example of an image obtained by applying pseudo-color conversion to the original X-ray image, and shows the structure 65 in the depth direction near the chest of person 0.
Since 66°67, 68, 69, 70, and 71 are relatively emphasized by 1 due to the difference in 9 hues, it is convenient for searching for disqualified parts near copy 111.

第10図は、a微鏡で映した毛細血管画像に関する説明
図である。従来から血管の画像を解析することは、3次
元形状の毛細血管の構造を2次元平面に投影された画像
82の解析を行うことである。
FIG. 10 is an explanatory diagram of a capillary image taken with the a-microscope. Conventionally, analyzing an image of a blood vessel involves analyzing an image 82 in which a three-dimensional capillary structure is projected onto a two-dimensional plane.

わずかな:a淡差情報を手がかりに、主管血管と枝血管
との分11i1別処理を施している。しかしながら、第
10図(A)図示の濃淡画像をもとに、第10図(B)
図示の如く奥行き度を線形に当てはめた後に、奥行き度
に応じて9色相を当てはめる。その結果、第10図(C
)図示の如く、奥行き度に応じて、明確にお互いが重な
りあった毛細血管の相対距離を把握することができて、
都合がよい。
Using the slight :a difference information as a clue, the main blood vessels and branch blood vessels are processed separately. However, based on the grayscale image shown in FIG. 10(A), FIG. 10(B)
After linearly applying the depth as shown in the figure, nine hues are applied according to the depth. As a result, Figure 10 (C
) As shown in the figure, it is possible to clearly understand the relative distances of capillaries that overlap each other depending on the depth,
convenient.

〔発明の効果〕〔Effect of the invention〕

以上説明したように9本発明によれば、従来のフルカラ
ー立体表示に比べて第11図図示の主観評価実験の結果
が示す様に、従来の両眼視差特性に基づく方式Aを基準
とした他の方式B(両眼視差特性に運動視差特性を導入
した方式)と本発明を用いた方式Cとを比較してみると
、奥行き知覚はさらに強くなった。また、長時間観察し
た場合の疲労感が大幅に削減し、自然景観を眺めた場合
の再生像が得られた。
As explained above, according to the present invention, compared to the conventional full-color stereoscopic display, as shown in the results of the subjective evaluation experiment shown in FIG. Comparing Method B (a method in which motion parallax characteristics are introduced into binocular parallax characteristics) and Method C using the present invention, depth perception has become even stronger. In addition, the feeling of fatigue when observing for a long time was significantly reduced, and a reconstructed image of the natural landscape was obtained.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は視差量に応じた擬似カラー変換を行った本発明
の場合の処理の流れ図、第2図はカメラ入力部と立体表
示部とを説明する図、第3図は入力した景観の相対位置
関係図、第4図は2眼カメラからの視差量検出原理を説
明する図、第5図は色相と奥行き知覚とに関する説明図
、第6図は実験体系図、第7図は視差量に応じた色相を
割り当てた例を説明する説明図、第8図は視差量に応じ
て各対象物にまで色相変換を行った例を説明する説明図
、第9図はレントゲン画像に対する奥行き方向の画像補
正の例を説明する説明図、第10図は毛細血管画像に対
する色相変換を施した場合を説明する図、第11図は本
発明と従来方式との奥行き知覚度を説明する図、第12
図は人工衛星からの色彩画像の偽色合成表示を説明する
図、第13図は白黒レントゲン像に対する擬似カラー表
示を説明する図である。 図中、1はカメラ入力部、2は視差量検出処理部、3は
擬似色変換処理部、4は立体表示部を表す。
Fig. 1 is a flowchart of the process in the case of the present invention that performs pseudo color conversion according to the amount of parallax, Fig. 2 is a diagram explaining the camera input section and the stereoscopic display section, and Fig. 3 is a relative view of the input scenery. Positional relationship diagram, Figure 4 is a diagram explaining the principle of detecting the amount of parallax from a twin-lens camera, Figure 5 is an explanatory diagram regarding hue and depth perception, Figure 6 is a diagram of the experimental system, and Figure 7 is a diagram explaining the amount of parallax. Figure 8 is an explanatory diagram illustrating an example in which hues are assigned according to the amount of parallax. Figure 8 is an explanatory diagram illustrating an example in which hue conversion is applied to each object according to the amount of parallax. Figure 9 is an image in the depth direction for an X-ray image. FIG. 10 is an explanatory diagram illustrating an example of correction; FIG. 10 is a diagram illustrating a case in which hue conversion is applied to a capillary image; FIG. 11 is a diagram illustrating depth perception between the present invention and the conventional method;
FIG. 13 is a diagram for explaining a false color composite display of color images from an artificial satellite, and FIG. 13 is a diagram for explaining a false color display for a monochrome X-ray image. In the figure, 1 represents a camera input section, 2 represents a parallax amount detection processing section, 3 represents a pseudo color conversion processing section, and 4 represents a stereoscopic display section.

Claims (3)

【特許請求の範囲】[Claims] (1)奥行き方向の距離が既知な被写体を含む画像に対
して、奥行き方向の距離に応じて特定の色相で被写体を
彩色した画像を作成し表示することで立体知覚のある表
示を行うことを特徴とする立体表示処理方法。
(1) For an image containing a subject whose distance in the depth direction is known, a display with stereoscopic perception can be performed by creating and displaying an image in which the subject is colored with a specific hue according to the distance in the depth direction. Characteristic three-dimensional display processing method.
(2)両眼視差の視覚特性を利用した立体画像に対して
、視差量に応じた特定の色相を付加することで、奥行き
知覚を強めた表示を行うことを特徴とする立体表示処理
方法。
(2) A stereoscopic display processing method characterized by adding a specific hue according to the amount of parallax to a stereoscopic image using the visual characteristics of binocular parallax to display a display with enhanced depth perception.
(3)モノクロ立体画像を表示する際に、深度に応じて
、特定の色相の組み合わせを利用することで、奥行き知
覚感を高めることを特徴とする立体表示処理方法。
(3) A stereoscopic display processing method characterized in that when displaying a monochrome stereoscopic image, depth perception is enhanced by using a specific combination of hues depending on the depth.
JP2069440A 1990-03-19 1990-03-19 Method for processing three-dimensional display Pending JPH03269680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2069440A JPH03269680A (en) 1990-03-19 1990-03-19 Method for processing three-dimensional display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2069440A JPH03269680A (en) 1990-03-19 1990-03-19 Method for processing three-dimensional display

Publications (1)

Publication Number Publication Date
JPH03269680A true JPH03269680A (en) 1991-12-02

Family

ID=13402699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2069440A Pending JPH03269680A (en) 1990-03-19 1990-03-19 Method for processing three-dimensional display

Country Status (1)

Country Link
JP (1) JPH03269680A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006002431A (en) * 2004-06-17 2006-01-05 Nippon Telegr & Teleph Corp <Ntt> Illusion sheet for pedway
JP2008281599A (en) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> Information enhancing display method and information input/output device
WO2016174707A1 (en) * 2015-04-27 2016-11-03 株式会社日立ハイテクノロジーズ Charged particle beam device and sample observation method using same device
WO2021166690A1 (en) 2020-02-19 2021-08-26 ソニーグループ株式会社 Information processing device and method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006002431A (en) * 2004-06-17 2006-01-05 Nippon Telegr & Teleph Corp <Ntt> Illusion sheet for pedway
JP2008281599A (en) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> Information enhancing display method and information input/output device
WO2016174707A1 (en) * 2015-04-27 2016-11-03 株式会社日立ハイテクノロジーズ Charged particle beam device and sample observation method using same device
JPWO2016174707A1 (en) * 2015-04-27 2018-01-11 株式会社日立ハイテクノロジーズ Charged particle beam apparatus and sample observation method using the apparatus
WO2021166690A1 (en) 2020-02-19 2021-08-26 ソニーグループ株式会社 Information processing device and method, and program

Similar Documents

Publication Publication Date Title
US9848178B2 (en) Critical alignment of parallax images for autostereoscopic display
CN100511124C (en) Free multi visul point polyprojecting 3D displaying system and method
US8570363B2 (en) Display of generalized anaglyphs without retinal rivalry
AU763370B2 (en) A method for recording and viewing stereoscopic images in colour using multichrome filters
US20100289877A1 (en) Method and equipment for producing and displaying stereoscopic images with coloured filters
CN102263985B (en) Quality evaluation method, device and system of stereographic projection device
CN211128024U (en) 3D display device
CN108154514A (en) Image processing method, device and equipment
JP6951917B2 (en) Imaging device
CA2429176A1 (en) Combined colour 2d/3d imaging
CN101702056B (en) Stereo image displaying method based on stereo image pairs
JPH08136884A (en) Three dimensional image display device
CN109428987A (en) A kind of 360 degree of stereo photographic devices of wear-type panorama and image pickup processing method
EP3679769B1 (en) Lighting method and system to improve the perspective colour perception of an image observed by a user
CN102612837B (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
JPH03269680A (en) Method for processing three-dimensional display
TWI441093B (en) Method for generating three dimensional image and three dimensional imaging system
CN104584075B (en) Object-point for description object space and the connection method for its execution
CN113014902B (en) 3D-2D synchronous display method and system
CN112073596B (en) Simulated color processing method and system for specific black-and-white video signal
JP4482685B2 (en) Wide color gamut camera
SU1072289A1 (en) Method and device for forming and reproducing tv picture signal of spatially located objects
KR0171131B1 (en) The masking method of an image signal
Krupev et al. Flickering Reduction Algorithm in Anaglyph Stereoscopic Images
Chen et al. 2 The Method of Generating and Compositing Stereoscopic Display