WO2023188429A1 - 画像表示システム、表示制御装置および画像表示方法 - Google Patents

画像表示システム、表示制御装置および画像表示方法 Download PDF

Info

Publication number
WO2023188429A1
WO2023188429A1 PCT/JP2022/016995 JP2022016995W WO2023188429A1 WO 2023188429 A1 WO2023188429 A1 WO 2023188429A1 JP 2022016995 W JP2022016995 W JP 2022016995W WO 2023188429 A1 WO2023188429 A1 WO 2023188429A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitor
display
image
dimensional image
dimensional
Prior art date
Application number
PCT/JP2022/016995
Other languages
English (en)
French (fr)
Inventor
亨 口丸
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to PCT/JP2022/016995 priority Critical patent/WO2023188429A1/ja
Publication of WO2023188429A1 publication Critical patent/WO2023188429A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements

Definitions

  • the present invention relates to an image display system, a display control device, and an image display method.
  • three-dimensional monitors capable of displaying three-dimensional images have been used.
  • glasses-type monitors that use glasses such as polarized glasses, and naked-eye monitors that do not use glasses have been devised. Since 3D monitors utilize the parallax between both eyes, the range in which 3D images displayed on a 3D monitor can be properly viewed (3D observable area) is determined by the recommendations specified for each 3D monitor. Limited to a range.
  • Patent Document 1 describes a display system that includes a display unit that displays a parallax image including a left-eye image and a right-eye image, and a guide unit that guides the viewer to the viewing position of the display device.
  • the guide means described in Patent Document 1 can display and guide viewing positions suitable for stereoscopic viewing.
  • Patent Document 2 describes a display system that detects the position and tilt of stereoscopic glasses with respect to a screen and corrects a left-eye image and a right-eye image.
  • the present invention provides an image display system, a display control device, and an image display system that can display an appropriate three-dimensional image to an observer without changing the observer's position relative to a three-dimensional monitor or making significant image corrections.
  • the purpose is to provide a method.
  • An image display system includes: a monitor capable of displaying a three-dimensional image; a detection device that detects a position of an observer with respect to the monitor or a position of a monitor viewing glass as an observation position; A display control device is provided that determines at least one of a display size and a display position of the three-dimensional image to be displayed on the monitor based on the observation position detected by the device.
  • the display control device is configured to display the three-dimensional image on the monitor based on an observation position that is a position of an observer with respect to a monitor capable of displaying a three-dimensional image or a position of a monitor viewing glass. Determine at least one of the display size and display position of the image.
  • An image display method includes the steps of: detecting the position of an observer with respect to a monitor or the position of a monitor viewing glass as an observation position; At least one of the display size and display position of the dimensional image is determined.
  • an appropriate three-dimensional image can be displayed to the viewer without changing the position of the viewer with respect to the three-dimensional monitor or making significant image corrections.
  • FIG. 1 is a diagram showing an endoscope system according to a first embodiment.
  • FIG. 3 is a diagram showing the observation position of an observer with respect to the three-dimensional monitor of the endoscope system viewed from above.
  • FIG. 3 is a diagram showing the observation position of an observer with respect to the three-dimensional monitor of the endoscope system viewed from the side. It is a diagram showing a three-dimensional image displayed on the same three-dimensional monitor.
  • It is a figure explaining operation of a display control device of the same endoscope system. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure explaining operation of the same display control device. It is a figure
  • FIG. 1 is a diagram showing an endoscope system 100.
  • the endoscope system (image display system) 100 includes an endoscope 1, a three-dimensional monitor 2, a detection device 3, and a display control device 4.
  • the endoscope 1 is a device for observing and treating the inside of a patient lying on an operating table T, for example.
  • the endoscope 1 includes an elongated insertion section 10 that is inserted into a patient's body, an operating section 18 connected to the proximal end of the insertion section 10, and a universal cord 19 extending from the operating section 18.
  • the insertion section 10 has an imaging section 14 at its tip.
  • the imaging unit 14 includes a stereo optical system and an imaging element such as a CMOS image sensor.
  • the imaging unit 14 is capable of acquiring an imaging signal capable of generating a stereo image (three-dimensional image).
  • the operation unit 18 accepts operations on the endoscope 1.
  • the universal cord 19 connects the endoscope 1 and the display control device 4.
  • the imaging unit 14 transmits an imaging signal to the display control device 4 via the universal code 19.
  • the three-dimensional monitor (three-dimensional display) 2 displays images generated by the endoscope 1 and various information regarding the endoscope system 100.
  • the three-dimensional monitor 2 is a monitor capable of displaying a three-dimensional image, and is, for example, a glasses-type monitor or a naked-eye type monitor.
  • the eyeglass-type monitor is a monitor that requires the observer S to wear glasses with special optical characteristics and displays an image with parallax between both eyes.
  • the glasses worn by the observer S who observes the glasses-type monitor are polarized glasses G, liquid crystal shutter glasses, or the like.
  • the autostereoscopic monitor is a monitor that allows the observer S to observe autostereoscopic images without using glasses.
  • a naked-eye monitor is a monitor that allows viewing stereoscopic images with the naked eye using, for example, a parallax barrier method or a lenticular lens method.
  • the three-dimensional monitor 2 is a spectacle-type monitor in which the observer S uses polarized glasses G.
  • the three-dimensional monitor 2 may be an autostereoscopic monitor that allows the observer S to observe an autostereoscopic image without using glasses.
  • the detection device 3 is installed, for example, on the top of the three-dimensional monitor 2, and is a position sensor that detects the position of the observer S with respect to the three-dimensional monitor 2 as an "observation position P."
  • the position of the observer S relative to the three-dimensional monitor 2 detected by the detection device 3 is acquired by the display control device 4.
  • the detection device 3 detects the position of the viewer S with respect to the three-dimensional monitor 2, for example, by detecting the polarized glasses G worn by the viewer S, the face of the viewer S, etc. from the captured image.
  • the display control device 4 may perform image processing to detect the polarized glasses G and the face of the viewer S from the image captured by the detection device 3.
  • the detection device 3 may be a position sensor that detects the position of the observer S with respect to the three-dimensional monitor 2 using, for example, a laser or infrared rays. Furthermore, the detection device 3 may be a position sensor that detects a marker or the like incorporated in the polarized glasses G.
  • FIG. 2 is a diagram showing the observation position P of the observer S with respect to the three-dimensional monitor 2 viewed from above.
  • FIG. 3 is a diagram showing the observation position P of the observer S with respect to the three-dimensional monitor 2 viewed from the lateral direction.
  • the observation position P is a position near both eyes of the observer S, as shown in FIG. 2, for example.
  • the detection device 3 may set the observation position P at a position slightly closer to the three-dimensional monitor 2 than both eyes of the observer S.
  • the display control device 4 is a device that generates a three-dimensional image A based on the imaging signal acquired from the imaging section 14 and displays the generated three-dimensional image A on the three-dimensional monitor 2.
  • the display control device 4 is a program-executable processing circuit (computer) having a processor such as a CPU and a program-readable memory, a logic circuit implemented in ASIC or FPGA, or a combination thereof.
  • the display control device 4 may be a calculation device provided on a cloud server connected to the endoscope 1 and the three-dimensional monitor 2 via the Internet.
  • FIG. 4 is a diagram showing a three-dimensional image A displayed on the three-dimensional monitor 2.
  • the display control device 4 determines at least one of the display size and display position of the three-dimensional image A to be displayed on the three-dimensional monitor 2, based on the observation position P of the observer S detected by the detection device 3. Specifically, the display control device 4 arranges the observation position P in a range (hereinafter also referred to as "three-dimensional observable region R") in which the observer S can appropriately observe the three-dimensional image on the three-dimensional monitor 2. At least one of the display size and display position of the three-dimensional image A to be displayed on the three-dimensional monitor 2 is determined so that the three-dimensional image A is displayed on the three-dimensional monitor 2.
  • At least one of the display size and display position of the dimensional image A is determined.
  • the display control device 4 determines the display position of the three-dimensional image A to be displayed on the three-dimensional monitor 2 based on the observation position P from the three-dimensional monitor 2. Specifically, as shown in FIG. 2, the display control device 4 sets the intersection of the perpendicular line from the observation position P to the three-dimensional monitor 2 and the three-dimensional monitor 2 to be the center AO of the display area AR of the three-dimensional image A. do.
  • the display control device 4 determines the display size of the three-dimensional image A to be displayed on the three-dimensional monitor 2 based on the observation position P from the three-dimensional monitor 2. Specifically, the display control device 4 adjusts the display size of the three-dimensional image A (display area AR size).
  • the viewing angle ⁇ at which the three-dimensional image A can be observed optimally is defined for the three-dimensional monitor 2 according to the characteristics of the three-dimensional monitor 2.
  • the viewing angle ⁇ is a vertical viewing angle and a horizontal viewing angle defined by the liquid crystal size of the three-dimensional monitor 2 and the specifications of the polarizing film.
  • right-eye pixels and left-eye pixels are arranged alternately in the vertical direction.
  • the angle of light from the right-eye pixel and the left-eye pixel is determined as the vertical viewing angle ⁇ v shown in FIG. 3, depending on the arrangement pitch of the right-eye pixel and the left-eye pixel, the distance between the pixel and the polarizing film, the specifications of the polarizing film, etc.
  • the horizontal viewing angle shown in FIG. 2 is also determined based on the liquid crystal size, pixel pitch, specifications of the polarizing film, etc.
  • the display control device 4 displays a background color, such as black, in an area other than the display area AR on the three-dimensional monitor 2.
  • the display control device 4 may display a GUI image that displays information about the endoscope system 100 in an area other than the display area AR on the three-dimensional monitor 2.
  • FIG. 6 is a diagram showing a three-dimensional image A updated corresponding to the new observation position P shown in FIG.
  • the new observation position P shown in FIG. 5 is closer to the three-dimensional monitor 2 than the observation position P shown in FIG. 2, and the observation distance D is shorter. Therefore, as shown in FIG. 6, the display size of the three-dimensional image A (the size of the display area AR) determined by the display control device 4 becomes small. Even when the observer S approaches the three-dimensional monitor 2, the display area AR is updated so that the observation position P is included in the three-dimensional observable area R. As a result, the observer S can observe an appropriate three-dimensional image even when approaching the three-dimensional monitor 2.
  • FIG. 8 is a diagram showing the three-dimensional image A updated corresponding to the new observation position P shown in FIG. 7.
  • the new observation position P shown in FIG. 7 is at a different position compared to the observation position P shown in FIG. 5, but the observation distance D is almost the same. Therefore, as shown in FIG. 8, the display size (size of the display area AR) of the three-dimensional image A determined by the display control device 4 does not change, but the center AO of the display area AR of the three-dimensional image A changes to the left side. be done.
  • the display area AR is updated so that the observation position P is included in the three-dimensional observable area R.
  • the observer S moves parallel to the three-dimensional monitor 2
  • he or she can observe an appropriate three-dimensional image.
  • the new observation position P shown in FIG. 9 is at a different position compared to the observation position P shown in FIG. 7, but the observation distance D is almost the same. Therefore, as shown in FIG. 9, the display size of the three-dimensional image A (the size of the display area AR) determined by the display control device 4 does not change, but the center AO of the display area AR of the three-dimensional image A is moved downward. Be changed. Even when the observer S squats down in front of the three-dimensional monitor 2, the display area AR is updated so that the observation position P is included in the three-dimensional observable area R. As a result, the observer S can observe an appropriate three-dimensional image even when crouching down in front of the three-dimensional monitor 2.
  • ⁇ Following limit> When the observer S moves in parallel or squats down, at least part of the display area AR of the three-dimensional image A calculated based on the new observation position P is outside the displayable area of the three-dimensional monitor 2; occurs.
  • the display control device 4 changes the display area AR of the three-dimensional image A to within the displayable area of the three-dimensional monitor 2.
  • the display control device 4 sets the center AO of the display area AR of the three-dimensional image A to be a position inside the intersection of a perpendicular line from the observation position P to the three-dimensional monitor 2 and the three-dimensional monitor 2.
  • the entire three-dimensional image A is displayed on the three-dimensional monitor 2, and the observer S can observe the entire three-dimensional image A.
  • ⁇ Multiple observers> When there are two observers S observing the three-dimensional image A displayed on the three-dimensional monitor 2, the display control device 4 generates and displays the three-dimensional image A for each observer S. Two observers S are assumed to be a first observer S1 and a second observer S2.
  • the display control device 4 determines the center AO1 of the display area AR1 of the three-dimensional image A displayed on the three-dimensional monitor 2 and the center AO1 of the three-dimensional image A displayed on the three-dimensional monitor 2 based on the observation position P1 of the first observer S1 detected by the detection device 3.
  • the display size (size of display area AR1) is determined.
  • the display control device 4 determines the center AO2 of the display area AR2 of the three-dimensional image A to be displayed on the three-dimensional monitor 2 and the center AO2 of the three-dimensional image A, based on the observation position P2 of the second observer S2 detected by the detection device 3.
  • the display size (size of display area AR2) is determined.
  • each observer S can observe a three-dimensional image suitable for each person. The same applies even if there are three or more observers S.
  • the display control device 4 may determine at least one of the display size and display position of the three-dimensional image A to be displayed on the three-dimensional monitor 2 based on the observation region PR to which the observation position P detected by the detection device 3 belongs. As shown in FIG. 2, the observation region PR has a predetermined range. The display control device 4 does not update the display size and display position of the three-dimensional image A when the observation positions P are arranged in the same observation region PR. As a result, it is possible to prevent the display size and display position of the three-dimensional image A from changing too much and reducing visibility.
  • the display control device 4 may determine at least one of the display size and display position of the three-dimensional image A to be displayed on the three-dimensional monitor 2 based on the observation position P detected by the detection device 3 at predetermined time intervals. . As a result, it is possible to prevent the display size and display position of the three-dimensional image A from changing too much and reducing visibility.
  • an appropriate three-dimensional image can be displayed to the observer without changing the observer's position with respect to the three-dimensional monitor or making significant image corrections.
  • the display control device 4 generates a stereo image as a three-dimensional image A from the imaging signal acquired from the endoscope 1.
  • the three-dimensional image generated by the display control device 4 is not limited to a stereo image.
  • the detection device 3 is a position sensor installed on the three-dimensional monitor 2.
  • the aspect of the detection device 3 is not limited to this.
  • the detection device may be the imaging unit (imaging device) 14 of the endoscope 1.
  • the observer S holds the endoscope 1 on the imaging unit 14 and images a reference object such as the three-dimensional monitor 2.
  • the display control device 4 may calculate the observation position P of the observer S with respect to the three-dimensional monitor 2 based on the captured image of the reference object.
  • the program in each embodiment may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
  • the "computer system” includes hardware such as an OS and peripheral devices.
  • the term "computer-readable recording medium” refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems.
  • a "computer-readable recording medium” refers to a storage medium that dynamically stores a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • It may also include a device that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or client in that case.
  • the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • Endoscope system image display system
  • Endoscope 2 3D monitor (3D display)
  • Detection device 4 Display control device
  • Insertion section 14
  • Imaging section (imaging device) S Observer P Observation position D Observation distance ⁇ Viewing angle
  • Polarized glasses R 3D observable area

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像表示システムは、3次元画像を表示可能なモニタと、前記モニタに対する観察者の位置またはモニタ観察用グラスの位置を観察位置として検出する検出装置と、前記検出装置が検出した前記観察位置に基づいて、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する表示制御装置と、を備える。

Description

画像表示システム、表示制御装置および画像表示方法
 本発明は、画像表示システム、表示制御装置および画像表示方法に関する。
 従来、3次元画像を表示可能な3次元モニタ(3次元ディスプレイ)が使用されている。3次元モニタとして、偏光眼鏡などの眼鏡を用いる眼鏡式モニタや、眼鏡を使用しない裸眼式モニタなどが考案されている。3次元モニタは、両眼の視差を利用しているため、3次元モニタに表示される3次元画像を適切に観察できる範囲(3次元観察可能領域)は、3次元モニタごとに規定される推奨範囲に限定される。
 特許文献1には、左目用画像と右目用画像とを含む視差画像を表示する表示手段と、鑑賞者に表示装置の鑑賞位置を案内する案内手段とを備える表示システムが記載されている。特許文献1に記載の案内手段は、立体視に適した鑑賞位置を表示して案内できる。
 特許文献2には、画面に対する立体視眼鏡の位置および傾きを検出して左目用画像や右目用画像を補正する表示システムが記載されている。
特開2012-195728号公報 特開2011-071898号公報
 しかしながら、特許文献1や特許文献2に記載の表示システムにおいて、観察者の位置が3次元モニタに表示される3次元画像を適切に観察できる範囲(3次元観察可能領域)に含まれない状態が生じる場合がある。この場合、3次元モニタに対する観察者の位置の変更や、左目用画像や右目用画像の補正が必要であった。
 上記事情を踏まえ、本発明は、3次元モニタに対する観察者の位置の変更や画像の大幅な補正を行わずに観察者に適切な3次元画像を表示できる画像表示システム、表示制御装置および画像表示方法を提供することを目的とする。
 上記課題を解決するために、この発明は以下の手段を提案している。
 本発明の第一の態様に係る画像表示システムは、3次元画像を表示可能なモニタと、前記モニタに対する観察者の位置またはモニタ観察用グラスの位置を観察位置として検出する検出装置と、前記検出装置が検出した前記観察位置に基づいて、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する表示制御装置と、を備える。
 本発明の第二の態様に係る表示制御装置は、3次元画像を表示可能なモニタに対する観察者の位置またはモニタ観察用グラスの位置である観察位置に基づいて、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する。
 本発明の第三の態様に係る画像表示方法は、モニタに対する観察者の位置またはモニタ観察用グラスの位置を観察位置として検出する工程と、検出した観察位置に基づいて、前記モニタに表示する3次元画像の表示サイズと表示位置の少なくとも一方を決定する。
 本発明の画像表示システム、表示制御装置および画像表示方法によれば、3次元モニタに対する観察者の位置の変更や画像の大幅な補正を行わずに観察者に適切な3次元画像を表示できる。
第一実施形態に係る内視鏡システムを示す図である。 上方向から見た同内視鏡システムの3次元モニタに対する観察者の観察位置を示す図である。 横方向から見た同内視鏡システムの3次元モニタに対する観察者の観察位置を示す図である。 同3次元モニタに表示された3次元画像を示す図である。 同内視鏡システムの表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。 同表示制御装置の動作を説明する図である。
(第一実施形態)
 本発明の第一実施形態に係る内視鏡システム100について、図1から図11を参照して説明する。
[内視鏡システム100]
 図1は内視鏡システム100を示す図である。
 内視鏡システム(画像表示システム)100は、内視鏡1と、3次元モニタ2と、検出装置3と、表示制御装置4と、を備える。
[内視鏡1]
 内視鏡1は、例えば手術台Tに横たわる患者の体内を観察および処置する装置である。内視鏡1は、患者の体内に挿入される細長い挿入部10と、挿入部10の基端に接続された操作部18と、操作部18から延出するユニバーサルコード19と、を備える。
 挿入部10は、先端に撮像部14を有する。撮像部14は、ステレオ光学系と、CMOSイメージセンサ等の撮像素子と、を有する。撮像部14は、ステレオ画像(3次元画像)を生成可能な撮像信号を取得可能である。
 操作部18は、内視鏡1に対する操作を受け付ける。ユニバーサルコード19は、内視鏡1と表示制御装置4とを接続する。撮像部14は、ユニバーサルコード19を経由して表示制御装置4に撮像信号を送信する。
[3次元モニタ2]
 3次元モニタ(3次元ディスプレイ)2は、内視鏡1により生成された画像や、内視鏡システム100に関する各種情報等を表示する。3次元モニタ2は、3次元画像を表示可能なモニタであって、例えば眼鏡式モニタや裸眼式モニタである。
 眼鏡式モニタは、観察者Sに特殊な光学特性を持った眼鏡を掛けさせ、両眼に視差をつけた画像を表示するモニタである。眼鏡式モニタを観察する観察者Sが掛ける眼鏡は、偏光眼鏡Gや液晶シャッター眼鏡などである。
 裸眼式モニタは、観察者Sが眼鏡を使用せずに裸眼立体視画像を観察可能なモニタである。裸眼式モニタは、例えばパララックスバリア方式やレンチキュラーレンズ方式により裸眼立体視画像を観察可能なモニタである。
 本実施形態において、3次元モニタ2は、観察者Sが偏光眼鏡Gを用いる眼鏡式モニタである。なお、3次元モニタ2は、観察者Sが眼鏡を使用せずに裸眼立体視画像を観察可能な裸眼式モニタであってもよい。
[検出装置3]
 検出装置3は、例えば3次元モニタ2の上部に設置されており、3次元モニタ2に対する観察者Sの位置を「観察位置P」として検出する位置センサである。検出装置3が検出した3次元モニタ2に対する観察者Sの位置は、表示制御装置4によって取得される。検出装置3は、例えば、撮像した画像から観察者Sが掛けている偏光眼鏡Gや観察者Sの顔などを検出することにより、3次元モニタ2に対する観察者Sの位置を検出する。なお、表示制御装置4が、検出装置3が撮像した画像から偏光眼鏡Gや観察者Sの顔を検出する画像処理を実施してもよい。
 検出装置3は、例えばレーザや赤外線により3次元モニタ2に対する観察者Sの位置を検出する位置センサであってもよい。また、検出装置3は、偏光眼鏡Gに組み込まれたマーカー等を検出する位置センサであってもよい。
 図2は、上方向から見た3次元モニタ2に対する観察者Sの観察位置Pを示す図である。図3は、横方向から見た3次元モニタ2に対する観察者Sの観察位置Pを示す図である。観察位置Pは、例えば図2に示すように、観察者Sの両眼付近の位置である。検出装置3は、観察者Sの両眼よりも少し3次元モニタ2側の位置を観察位置Pとしてもよい。
[表示制御装置4]
 表示制御装置4は、撮像部14から取得した撮像信号に基づいて3次元画像Aを生成し、生成した3次元画像Aを3次元モニタ2に表示する装置である。表示制御装置4は、CPUなどのプロセッサとプログラムを読み込み可能なメモリ等を有するプログラム実行可能な処理回路(コンピュータ)、ASICやFPGAに実装された論理回路、またはそれらの組み合わせである。
 表示制御装置4は、インターネットを経由して内視鏡1と3次元モニタ2とに接続されるクラウドサーバ上に設けられた演算装置であってもよい。
 図4は、3次元モニタ2に表示された3次元画像Aを示す図である。
 表示制御装置4は、検出装置3が検出した観察者Sの観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。具体的には、表示制御装置4は、3次元モニタ2において観察者Sが3次元画像を適切に観察できる範囲範囲(以降、「3次元観察可能領域R」ともいう)に観察位置Pが配置されるように、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。
 本実施形態において、表示制御装置4は、図2に示すように、3次元観察可能領域Rにおいて最も3次元モニタ2側に観察位置Pが配置されるように、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。
 表示制御装置4は、3次元モニタ2から観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示位置を決定する。具体的には、図2に示すように、表示制御装置4は、観察位置Pから3次元モニタ2に対する垂線と3次元モニタ2との交点を、3次元画像Aの表示領域ARの中心AOとする。
 表示制御装置4は、3次元モニタ2から観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示サイズを決定する。具体的には、表示制御装置4は、3次元モニタ2から観察位置Pまでの観察距離Dと、3次元モニタ2の視野角θと、に基づいて3次元画像Aの表示サイズ(表示領域ARのサイズ)を決定する。
 ここで、3次元モニタ2は、3次元モニタ2の特性により3次元画像Aを最適に観察可能な視野角θが規定されている。具体的には、視野角θは、3次元モニタ2の液晶サイズや偏光フィルムの仕様により規定される垂直視野角および水平視野角である。
 3次元モニタ2は、例えば、垂直方向に交互に右目用画素と左目用画素が並んでいる。右目用画素と左目用画素の配置ピッチと、画素と偏光フィルムの距離、偏光フィルムの仕様等によって、右目用画素と左目用画素からの光線角度が図3に示す垂直視野角θvとして定まる。図2に示す水平視野角も、液晶サイズや画素ピッチ、偏光フィルムの仕様等に基づいて定まる。
 表示制御装置4は、3次元モニタ2における表示領域AR以外の領域に、例えば黒などの背景色を表示する。表示制御装置4は、3次元モニタ2における表示領域AR以外の領域に、内視鏡システム100の情報を表示するGUI画像を表示してもよい。
[内視鏡システム100の動作]
 次に内視鏡システム100の表示制御装置4の動作(画像制御方法)について説明する。ここでは、観察者Sが移動したときにおける表示制御装置4の動作例を示す。図5から図11は、表示制御装置4の動作を説明する図である。
<接近動作>
 観察者Sが図2から図5に示す位置に移動したとき、表示制御装置4は、検出装置3が検出した観察者Sの新しい観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。
 図6は、図5に示す新しい観察位置Pに対応して更新された3次元画像Aを示す図である。図5に示す新しい観察位置Pは、図2に示す観察位置Pよりも3次元モニタ2に近く、観察距離Dが短くなる。そのため、図6に示すように、表示制御装置4が決定する3次元画像Aの表示サイズ(表示領域ARのサイズ)は小さくなる。観察者Sが3次元モニタ2に接近した場合であっても、観察位置Pが3次元観察可能領域Rに含まれるように、表示領域ARが更新される。その結果、観察者Sは3次元モニタ2に接近した場合であっても適切な3次元画像を観察できる。
<平行移動動作>
 観察者Sが図5から図7に示す左側の位置に平行移動したとき、表示制御装置4は、検出装置3が検出した観察者Sの新しい観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。
 図8は、図7に示す新しい観察位置Pに対応して更新された3次元画像Aを示す図である。図7に示す新しい観察位置Pは、図5に示す観察位置Pと比較して、異なる位置にあるが、観察距離Dはほぼ同じである。そのため、図8に示すように、表示制御装置4が決定する3次元画像Aの表示サイズ(表示領域ARのサイズ)は変わらないが、3次元画像Aの表示領域ARの中心AOが左側に変更される。観察者Sが3次元モニタ2に対して平行移動した場合であっても、観察位置Pが3次元観察可能領域Rに含まれるように、表示領域ARが更新される。その結果、観察者Sは3次元モニタ2に対して平行移動した場合であっても適切な3次元画像を観察できる。
<しゃがみ動作>
 観察者Sが図9に示すようにしゃがんだとき、表示制御装置4は、検出装置3が検出した観察者Sの新しい観察位置Pに基づいて、3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定する。
 図9に示す新しい観察位置Pは、図7に示す観察位置Pと比較して、異なる位置にあるが、観察距離Dはほぼ同じである。そのため、図9に示すように、表示制御装置4が決定する3次元画像Aの表示サイズ(表示領域ARのサイズ)は変わらないが、3次元画像Aの表示領域ARの中心AOが下側に変更される。観察者Sが3次元モニタ2に対してしゃがんだ場合であっても、観察位置Pが3次元観察可能領域Rに含まれるように、表示領域ARが更新される。その結果、観察者Sは3次元モニタ2に対してしゃがんだ場合であっても適切な3次元画像を観察できる。
<追従限界>
 観察者Sが平行移動したときやしゃがんだときにおいて、新たな観察位置Pに基づいて算出された3次元画像Aの表示領域ARの少なくとも一部が3次元モニタ2の表示可能領域外にある場合が生じる。この場合、表示制御装置4は、3次元画像Aの表示領域ARを3次元モニタ2の表示可能領域内に変更する。例えば、表示制御装置4は、観察位置Pから3次元モニタ2に対する垂線と3次元モニタ2との交点よりも内側の位置を、3次元画像Aの表示領域ARの中心AOとする。その結果、3次元画像Aの全体が3次元モニタ2に表示され、観察者Sは3次元画像Aの全体を観察できる。
<複数観察者>
 3次元モニタ2に表示される3次元画像Aを観察する観察者Sが二人であるとき、表示制御装置4は、観察者Sごとに3次元画像Aを生成して表示する。二人の観察者Sを第一観察者S1と第二観察者S2とする。
 表示制御装置4は、検出装置3が検出した第一観察者S1の観察位置P1に基づいて、3次元モニタ2に表示する3次元画像Aの表示領域AR1の中心AO1と、3次元画像Aの表示サイズ(表示領域AR1のサイズ)を決定する。
 表示制御装置4は、検出装置3が検出した第二観察者S2の観察位置P2に基づいて、3次元モニタ2に表示する3次元画像Aの表示領域AR2の中心AO2と、3次元画像Aの表示サイズ(表示領域AR2のサイズ)を決定する。
 観察者Sが複数である場合であっても、観察位置Pごとに3次元観察可能領域Rが更新される。その結果、観察者Sはそれぞれにとって適切な3次元画像を観察できる。観察者Sが3人以上であっても同様である。
<間欠制御:距離>
 表示制御装置4は、検出装置3が検出した観察位置Pが属する観察領域PRに基づいて3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定してもよい。図2に示すように観察領域PRは所定の範囲を有している。表示制御装置4は、観察位置Pが同じ観察領域PRに配置されている場合、3次元画像Aの表示サイズと表示位置を更新しない。その結果、3次元画像Aの表示サイズや表示位置が変化しすぎて視認性が低下することを防止できる。
<間欠制御:時間>
 表示制御装置4は、所定の時間間隔ごとに検出装置3が検出した観察位置Pに基づいて3次元モニタ2に表示する3次元画像Aの表示サイズと表示位置の少なくとも一方を決定してもよい。その結果、3次元画像Aの表示サイズや表示位置が変化しすぎて視認性が低下することを防止できる。
 本実施形態に係る内視鏡システム100によれば、3次元モニタに対する観察者の位置の変更や画像の大幅な補正を行わずに観察者に適切な3次元画像を表示できる。
 以上、本発明の第一実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。また、上述の実施形態および変形例において示す構成要素は適宜に組み合わせて構成することが可能である。
(変形例1)
 上記実施形態において、表示制御装置4は、内視鏡1から取得した撮像信号からステレオ画像を3次元画像Aとして生成する。しかしながら、表示制御装置4が生成する3次元画像はステレオ画像に限定されない。
(変形例2)
 上記実施形態において、検出装置3は、3次元モニタ2に設置された位置センサである。しかしながら、検出装置3の態様はこれに限定されない。例えば、検出装置は、内視鏡1の撮像部(撮像装置)14であってもよい。観察者Sは内視鏡1を使用する前に撮像部14に手に持ち、3次元モニタ2などの基準物を撮像する。表示制御装置4は、基準物を撮像した画像に基づいて、3次元モニタ2に対する観察者Sの観察位置Pを算出してもよい。
 各実施形態におけるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
100 内視鏡システム(画像表示システム)
1 内視鏡
2 3次元モニタ(3次元ディスプレイ)
3 検出装置
4 表示制御装置
10 挿入部
14 撮像部(撮像装置)
S 観察者
P 観察位置
D 観察距離
θ 視野角
G 偏光眼鏡
R 3次元観察可能領域
A 3次元画像
AR 表示領域
AO 中心

Claims (20)

  1.  3次元画像を表示可能なモニタと、
     前記モニタに対する観察者の位置またはモニタ観察用グラスの位置を観察位置として検出する検出装置と、
     前記検出装置が検出した前記観察位置に基づいて、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する表示制御装置と、
     を備える、
     画像表示システム。
  2.  前記表示制御装置は、前記モニタにおける3次元観察可能領域に前記観察位置が配置されるように、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     請求項1に記載の画像表示システム。
  3.  前記表示制御装置は、前記モニタから前記観察位置までの観察距離に基づいて、前記モニタに表示する前記3次元画像の表示サイズを決定する、
     請求項1に記載の画像表示システム。
  4.  前記検出装置は、前記モニタに設けられ、前記モニタに対する観察者の位置またはモニタ観察用グラスの位置を検出するセンサである、
     請求項1に記載の画像表示システム。
  5.  前記観察者が使用する撮像装置をさらに備え、
     前記検出装置は、前記撮像装置が前記モニタを撮像した画像に基づいて、前記観察位置を検出する、
     請求項1に記載の画像表示システム。
  6.  前記撮像装置は、前記3次元画像を撮像可能な内視鏡の一部である、
     請求項5に記載の画像表示システム。
  7.  前記表示制御装置は、前記観察位置に基づいて決定した前記3次元画像を表示する領域の少なくとも一部が前記モニタの表示可能領域外にあるとき、前記3次元画像を表示する領域を前記モニタの表示可能領域内に変更する、
     請求項1に記載の画像表示システム。
  8.  前記表示制御装置は、前記検出装置が検出した前記観察位置が属する観察領域に基づいて前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定するとき、
     請求項1に記載の画像表示システム。
  9.  前記表示制御装置は、所定の時間間隔ごとに前記検出装置が検出した前記観察位置に基づいて前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     請求項1に記載の画像表示システム。
  10.  前記観察位置は二以上であり、
     前記3次元画像は、前記観察位置ごとに独立して表示される、
     請求項1に記載の画像表示システム。
  11.  3次元画像を表示可能なモニタに対する観察者の位置またはモニタ観察用グラスの位置である観察位置に基づいて、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     表示制御装置。
  12.  前記モニタにおける3次元観察可能領域に前記観察位置が配置されるように、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     請求項11に記載の表示制御装置。
  13.  前記モニタから前記観察位置までの観察距離に基づいて、前記モニタに表示する前記3次元画像の表示サイズを決定する、
     請求項11に記載の表示制御装置。
  14.  前記観察位置に基づいて決定した前記3次元画像を表示する領域の少なくとも一部が前記モニタの表示可能領域外にあるとき、前記3次元画像を表示する領域を前記モニタの表示可能領域内に変更する、
     請求項11に記載の表示制御装置。
  15.  前記観察位置が属する観察領域に基づいて前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定するとき、
     請求項11に記載の表示制御装置。
  16.  所定の時間間隔ごとに検出した前記観察位置に基づいて前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     請求項11に記載の表示制御装置。
  17.  前記観察位置は二以上であり、
     前記3次元画像は、前記観察位置ごとに独立して前記モニタに表示させる、
     請求項11に記載の表示制御装置。
  18.  モニタに対する観察者の位置またはモニタ観察用グラスの位置を観察位置として検出する工程と、
    検出した観察位置に基づいて前記モニタに表示する3次元画像の表示サイズと表示位置の少なくとも一方を決定する工程と、
     を有する画像表示方法。
  19.  前記モニタにおける3次元観察可能領域に前記観察位置が配置されるように、前記モニタに表示する前記3次元画像の表示サイズと表示位置の少なくとも一方を決定する、
     請求項18に記載の画像表示方法。
  20.  前記モニタから前記観察位置までの観察距離に基づいて、前記モニタに表示する前記3次元画像の表示サイズを決定する、
     請求項18に記載の画像表示方法。
PCT/JP2022/016995 2022-04-01 2022-04-01 画像表示システム、表示制御装置および画像表示方法 WO2023188429A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/016995 WO2023188429A1 (ja) 2022-04-01 2022-04-01 画像表示システム、表示制御装置および画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/016995 WO2023188429A1 (ja) 2022-04-01 2022-04-01 画像表示システム、表示制御装置および画像表示方法

Publications (1)

Publication Number Publication Date
WO2023188429A1 true WO2023188429A1 (ja) 2023-10-05

Family

ID=88200563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/016995 WO2023188429A1 (ja) 2022-04-01 2022-04-01 画像表示システム、表示制御装置および画像表示方法

Country Status (1)

Country Link
WO (1) WO2023188429A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035477A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
JP2013254080A (ja) * 2012-06-06 2013-12-19 Sharp Corp 表示装置
WO2014155623A1 (ja) * 2013-03-28 2014-10-02 株式会社東芝 携帯端末装置、表示制御方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035477A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
JP2013254080A (ja) * 2012-06-06 2013-12-19 Sharp Corp 表示装置
WO2014155623A1 (ja) * 2013-03-28 2014-10-02 株式会社東芝 携帯端末装置、表示制御方法およびプログラム

Similar Documents

Publication Publication Date Title
US7092003B1 (en) 3-D imaging arrangements
JP5849811B2 (ja) 裸眼立体視用映像データ生成方法
RU2441341C2 (ru) Стереоскопическая телевизионная система, стереоскопический телевизионный приемник и очки для просмотра стереоскопического изображения
US8203599B2 (en) 3D image display apparatus and method using detected eye information
EP2395759A1 (en) Autostereoscopic display device and method for operating an autostereoscopic display device
JPH05122733A (ja) 3次元画像表示装置
JP2013128285A (ja) 表示装置、端末装置および表示方法
JPH0954376A (ja) 立体表示装置
JP2000206459A (ja) 眼鏡無し立体映像表示装置
JP2011085830A (ja) 映像表示システム
KR100751290B1 (ko) 헤드 마운티드 디스플레이용 영상 시스템
JP2015228543A (ja) 電子機器および表示処理方法
US9179139B2 (en) Alignment of stereo images pairs for viewing
WO2023188429A1 (ja) 画像表示システム、表示制御装置および画像表示方法
JP4657066B2 (ja) 立体表示装置
KR20050076946A (ko) 입체영상 표시장치 및 방법
JP2004279743A (ja) 三次元表示装置
WO2012165132A1 (ja) 裸眼立体ディスプレイ装置、視点調整方法、裸眼立体視用映像データ生成方法
CN115836522A (zh) 具有用于校正伪立体效果的处理器的3d显示设备
JP2013024910A (ja) 観察用光学機器
WO2013031864A1 (ja) 表示装置
US20120281893A1 (en) Medical image processing apparatus
TW201929786A (zh) 影像顯示裝置及影像顯示方法
US20230379596A1 (en) Light field endoscope with look around capability
JP3059962B1 (ja) 眼鏡無し立体映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935564

Country of ref document: EP

Kind code of ref document: A1