JP2020017932A - Medical video system - Google Patents

Medical video system Download PDF

Info

Publication number
JP2020017932A
JP2020017932A JP2018141822A JP2018141822A JP2020017932A JP 2020017932 A JP2020017932 A JP 2020017932A JP 2018141822 A JP2018141822 A JP 2018141822A JP 2018141822 A JP2018141822 A JP 2018141822A JP 2020017932 A JP2020017932 A JP 2020017932A
Authority
JP
Japan
Prior art keywords
image
video
medical
captured
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018141822A
Other languages
Japanese (ja)
Other versions
JP6436606B1 (en
Inventor
修也 菅野
Shuya Sugano
修也 菅野
みん秀 權
Min-Soo Kwon
みん秀 權
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medi Plus Co Ltd
Original Assignee
Medi Plus Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medi Plus Co Ltd filed Critical Medi Plus Co Ltd
Priority to JP2018141822A priority Critical patent/JP6436606B1/en
Priority to CN201880074894.5A priority patent/CN111373741B/en
Priority to PCT/JP2018/040760 priority patent/WO2019098052A1/en
Priority to US16/763,305 priority patent/US20200337798A1/en
Application granted granted Critical
Publication of JP6436606B1 publication Critical patent/JP6436606B1/en
Publication of JP2020017932A publication Critical patent/JP2020017932A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a simpler medical imaging system than conventional technology from the viewpoint of user friendliness.SOLUTION: A mobile terminal 132 includes specifying means for specifying a specific region being captured in a first video by means of image recognition processing on the first video taken by a celestial sphere camera 111, and determination means for determining whether the position where the operation input is received is an operation input allowable area set in the specific region or in the vicinity thereof when an operation input of the user is received in a case in which the first video is displayed. When the determination by the determination means is affirmative, a second video captured by a fixed-point camera 112 is displayed.SELECTED DRAWING: Figure 1

Description

本発明は、医療映像システムに関する。   The present invention relates to a medical imaging system.

近年、医療過誤や医療事故に対する問題意識が社会全体として向上しており、医療機関に対する情報公開の要請が強まっている。このような社会からの要請に応える取り組みの一環として、施設内に監視カメラ等を配置して、施設内で発生する種々の事象を撮影した映像を証拠として残すシステム(以下、医療映像システムと称する場合がある)が一部の医療機関において導入されている。
この種の医療映像システムに適用可能な技術を開示している先行技術文献として、下記の特許文献1を例示する。
In recent years, awareness of problems regarding medical malpractice and medical accidents has been increasing as a whole society, and requests for information disclosure to medical institutions have increased. As a part of an effort to respond to such a request from society, a surveillance camera or the like is arranged in a facility, and a system that leaves images of various events occurring in the facility as evidence (hereinafter referred to as a medical image system). May be introduced by some medical institutions.
As a prior art document that discloses a technology applicable to this type of medical imaging system, the following Patent Document 1 is exemplified.

特許文献1には、単眼カメラで撮影した全周監視映像から、ユーザが指定した位置情報に従って映像の一部を切り出し、切り出した部分を歪曲補正することによって正対映像を表示する技術が開示されている。   Patent Literature 1 discloses a technique in which a part of an image is cut out from an entire circumference monitoring image captured by a monocular camera in accordance with position information specified by a user, and the cut out part is corrected for distortion, thereby displaying a directly-facing image. ing.

特開2012−244480号公報JP 2012-244480 A

長時間にわたって広範囲を撮影することを目的とする監視カメラ等によって得られた映像は、解像度が低かったり広角撮影の為に映像が歪曲していたりする等によってユーザが十分な精度で細部を確認できないことがある。
上記の先行技術文献に開示されている技術を適用すれば、一定の改善を図ることができるが、未だ十分なものとは言い難い。
A video obtained by a surveillance camera or the like aiming to capture a wide area for a long time has a low resolution or is distorted due to wide-angle shooting, and the user cannot confirm details with sufficient accuracy. Sometimes.
By applying the technology disclosed in the above-mentioned prior art document, a certain improvement can be achieved, but it is still not enough.

本発明は、上記の課題に鑑みなされたものであり、ユーザフレンドリーの観点から、従来技術より簡便な医療映像システムを提供するものである。   The present invention has been made in view of the above problems, and has as its object to provide a medical imaging system that is simpler than the related art from the viewpoint of user friendliness.

本発明によれば、施術に関する第一映像と、前記第一映像の撮影範囲の一部を撮影した第二映像と、を入力する入力手段と、前記入力手段から入力された前記第一映像及び前記第二映像を表示可能な表示手段と、前記表示手段に対するユーザの操作入力を受け付けた位置を検知可能な操作位置検知手段と、前記第一映像に対する画像認識処理によって、当該第一映像に撮影されている特定領域を特定する特定手段と、前記表示手段が前記第一映像を表示している場合に前記操作位置検知手段がユーザの操作入力を受け付けた場合、当該操作入力を受け付けた位置が、前記特定領域又はその近傍に設定されている操作入力許容領域であるか否かを判定する判定手段と、を有しており、前記表示手段は、前記判定手段による判定が肯定された場合に前記第二映像を表示する医療映像システムが提供される。   According to the present invention, a first image relating to a treatment, a second image obtained by photographing a part of a photographing range of the first image, input means for inputting, the first image input from the input means and Display means capable of displaying the second image, operation position detection means capable of detecting a position at which a user's operation input to the display means is received, and image capturing of the first image by image recognition processing of the first image A specifying unit that specifies a specific region that has been set; and a case where the operation position detection unit receives a user operation input when the display unit displays the first video; Determining means for determining whether or not the specific area or an operation input allowable area set in the vicinity thereof is determined, and the display means determines whether the determination by the determining means is affirmative. Medical imaging system for displaying the second image is provided.

上記発明によれば、第一映像のうち画像認識処理によって特定された特定領域の表示位置に対する操作を検知すると、第一映像の一部を局所的に撮影した第二映像が表示させるので、ユーザは簡易な操作(直感的な操作)によって特定領域に該当する部分を詳細確認することができる。   According to the above invention, when an operation on the display position of the specific area specified by the image recognition processing in the first video is detected, the second video obtained by locally capturing a part of the first video is displayed. The user can confirm in detail the portion corresponding to the specific area by a simple operation (intuitive operation).

本発明によれば、ユーザフレンドリーの観点から、従来技術より簡便な医療映像システムが提供される。   According to the present invention, a medical imaging system that is simpler than the conventional technology is provided from the viewpoint of user friendliness.

本実施形態に係る医療映像システムを示す図である。It is a figure showing the medical imaging system concerning this embodiment. 半天球カメラの斜視図である。It is a perspective view of a semi-celestial sphere camera. 半天球カメラによって撮影された展開映像の一具体例を示す図である。It is a figure which shows an example of an expansion | deployment image image | photographed by the celestial sphere camera. 定点カメラによって撮影された映像の一具体例を示している図である。FIG. 3 is a diagram illustrating a specific example of an image captured by a fixed-point camera. モバイル端末の画像認識処理を説明するための模式図である。It is a schematic diagram for explaining the image recognition processing of the mobile terminal. モバイル端末の画像認識処理を説明するための模式図である。It is a schematic diagram for explaining the image recognition processing of the mobile terminal. モバイル端末の画像認識処理を説明するための模式図である。It is a schematic diagram for explaining the image recognition processing of the mobile terminal. モバイル端末の画像認識処理を説明するための模式図である。It is a schematic diagram for explaining the image recognition processing of the mobile terminal.

以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同一の符号を付し、適宜に説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same components are denoted by the same reference numerals, and description thereof will not be repeated.

<医療映像システム100に含まれる各構成要素について>
図1は、本実施形態に係る医療映像システム100を示す図である。
なお、図1に図示される矢印は、各構成要素の間において授受される映像データの出力元と入力先とを示すものである。従って、映像データ以外のデータ等の授受については、必ずしも各矢印が示す送受信方向と一致しなくてよい。
<About each component included in the medical imaging system 100>
FIG. 1 is a diagram showing a medical imaging system 100 according to the present embodiment.
Note that arrows shown in FIG. 1 indicate output sources and input destinations of video data transmitted and received between the respective components. Therefore, transmission and reception of data other than video data does not necessarily have to coincide with the transmission / reception direction indicated by each arrow.

医療映像システム100は、撮影手段(例えば、半天球カメラ111及び定点カメラ112)と、サーバ装置120と、視聴端末装置(例えば、パソコン端末131及びモバイル端末132)と、を備えている。   The medical imaging system 100 includes a photographing unit (for example, a semispherical camera 111 and a fixed-point camera 112), a server device 120, and a viewing terminal device (for example, a personal computer terminal 131 and a mobile terminal 132).

半天球カメラ111は、施術の術野を含めて手術室を広角撮影する装置である。
ここで広角撮影とは、単眼の広角レンズを用いて撮影して通常より広範囲の映像を得ること、複数のレンズ(標準レンズ及び広角レンズのいずれであっても良い)を互いに相違する方向に向けて撮影し、撮影した映像を複数結合して通常より広範囲の映像を得ることをいう。
本実施形態で用いる半天球カメラ111は、3つの広角レンズを120度間隔で配置し、各広角レンズを用いて撮影された3つの映像をソフトウェア処理(画像処理)によって結合して1つの展開映像を得る。このような処理を行うので、半天球カメラ111の撮影によって得られる展開映像は水平方向の展開角度が360度に達することを特徴とする。
従って、手術室に半天球カメラ111を設置することにより、当該手術室の全景を漏れなく撮影可能であり、術野近傍の様子の他に、手術室内で動いている各医療関係者の動作、バイタルサインを表示する医療機器の画面を一度に撮影することができる。このように撮影された映像を改竄することは困難であるため、施術に係る状況証拠として用いる際にその確からしさを十分に担保することができる。
The celestial sphere camera 111 is a device that captures a wide-angle image of the operating room including the operation field of the operation.
Here, wide-angle shooting refers to capturing images using a monocular wide-angle lens to obtain a wider image than usual, and directing a plurality of lenses (either a standard lens or a wide-angle lens) in different directions. This means that a plurality of captured images are combined to obtain a wider image than usual.
The semi-celestial sphere camera 111 used in the present embodiment has three wide-angle lenses arranged at intervals of 120 degrees, and combines three images captured using each wide-angle lens by software processing (image processing) into one developed image. Get. Since such processing is performed, the developed image obtained by photographing with the celestial sphere camera 111 has a feature that the horizontal development angle reaches 360 degrees.
Therefore, by installing the hemispherical camera 111 in the operating room, it is possible to photograph the entire view of the operating room without omission, and in addition to the state near the operating field, the operation of each medical personnel moving in the operating room, A screen of a medical device displaying vital signs can be photographed at a time. Since it is difficult to falsify the video taken in this way, it is possible to sufficiently ensure the certainty when using the video as situational evidence regarding a treatment.

図2は、半天球カメラ111の斜視図である。
半天球カメラ111は、台座部116と、支持部117と、本体部113と、を備える。本体部113は、3つの広角レンズを有しており、そのうちレンズ114とレンズ115とを図2に図示している。
本体部113は、半天球カメラ111の主たる機能(撮影機能を含む)を有する部分であり、支持部117によって台座部116に結合されている。台座部116は、手術の術野の上方に設置されることが好ましく、手術室の天井に直に設置されてもよいし、専用の支柱(不図示)を術野の上方まで伸ばして当該支柱に設置されてもよい。
FIG. 2 is a perspective view of the semi-celestial sphere camera 111.
The celestial sphere camera 111 includes a pedestal portion 116, a support portion 117, and a main body portion 113. The main body 113 has three wide-angle lenses, of which the lenses 114 and 115 are shown in FIG.
The main body unit 113 is a part having a main function (including a photographing function) of the semi-celestial sphere camera 111, and is coupled to the pedestal unit 116 by the support unit 117. The pedestal portion 116 is preferably installed above the operating field of the operation, may be installed directly on the ceiling of the operating room, or extends a dedicated support (not shown) to a position above the operating field to extend the support. May be installed.

図2に図示しているように、本体部113に設けられている各広角レンズ(レンズ114やレンズ115)の軸方向は、台座部116の反対方向、即ち術野の上方に台座部116を設置する前提において水平方向より下方向に傾いている。このような構造になっているので、半天球カメラ111は下方向に半天球画像(水平方向の展開角度が360度に達し且つ下方向についても漏れなく撮影されている画像)を撮影することができる。なお、展開映像は必ずしも半天球画像である必要はなく、全天球画像(水平方向にも上下方向にも展開角度が360度に達する画像)であってもよいし、水平方向又は上下方向の少なくとも一方について展開角度が360度未満である画像であってもよい。
図2で図示した半天球カメラ111は、本発明に用いられる展開映像を撮影する手段の一例であり、必ずしも撮影手段を本発明の構成要素として含まなくてもよい。また、本発明の構成要素に撮影手段を含めて実施する場合であっても、撮影手段は上記のような構造を備えずともよい。例えば、撮影手段のレンズの種別は必ずしも広角レンズではなくてもよいし、撮影手段のレンズの数は増減してもよい。
As shown in FIG. 2, the axial direction of each wide-angle lens (lens 114 and lens 115) provided on the main body 113 is opposite to the base 116, that is, the base 116 is positioned above the surgical field. It is inclined downward from the horizontal direction on the premise of installation. With such a structure, the hemisphere camera 111 can capture a hemisphere image (an image in which the horizontal development angle reaches 360 degrees and is taken without omission in the downward direction) in the downward direction. it can. It should be noted that the developed video does not necessarily need to be a semi-celestial sphere image, but may be a full celestial sphere image (an image whose development angle reaches 360 degrees in both the horizontal and vertical directions), or may be a horizontal or vertical The image may have an unfolding angle of less than 360 degrees for at least one of the images.
The hemispherical camera 111 illustrated in FIG. 2 is an example of a unit that captures a developed image used in the present invention, and the capturing unit does not necessarily need to be included as a component of the present invention. Further, even when the present invention is implemented by including the photographing means in the components of the present invention, the photographing means may not have the above-described structure. For example, the type of the lens of the photographing unit need not always be a wide-angle lens, and the number of lenses of the photographing unit may be increased or decreased.

図3は、半天球カメラ111によって撮影された展開映像の一具体例を示している。
当該展開映像の上部には、手術室の天井付近のディスプレイ装置201や、無影灯をスライドさせるために設けられたガイドレール202等が撮影されている。図3に図示されているディスプレイ装置201やガイドレール202のように、容易に識別がつかない程に大きく歪む被写体も存在しうる。
また、当該展開映像には、複数の医療関係者(執刀医204、助手203、医療スタッフ205〜211)が撮影されている。なお、以下の説明においては、これらの医療関係者を総称して施術者と称する場合がある。
FIG. 3 shows a specific example of a developed image captured by the celestial sphere camera 111.
A display device 201 near the ceiling of the operating room, a guide rail 202 provided for sliding an operating light, and the like are photographed above the developed image. As in the case of the display device 201 and the guide rail 202 illustrated in FIG. 3, there may be a subject that is greatly distorted such that it cannot be easily identified.
In addition, a plurality of medical personnel (the surgeon 204, the assistant 203, and the medical staff 205 to 211) are photographed in the developed video. In the following description, these medical personnel may be collectively referred to as a practitioner.

定点カメラ112は、手術の術野に対して正対する位置から当該術野を定点撮影する装置である。定点カメラ112による撮影は、通常の撮影で足りる(広角撮影である必要はない)。
図4は、定点カメラ112によって撮影された映像の一具体例を示している。図3と図4の比較から明らかであるように、図4の映像の方が術野の状況(執刀医204や助手203の手元の動き等)をより鮮明に確認することができる。
The fixed-point camera 112 is a device that performs fixed-point imaging of the surgical field from a position facing the surgical field of the surgery. Photographing by the fixed-point camera 112 is sufficient for normal photographing (it is not necessary to be wide-angle photographing).
FIG. 4 shows a specific example of an image captured by the fixed-point camera 112. As is clear from the comparison between FIG. 3 and FIG. 4, the image in FIG. 4 can more clearly confirm the situation of the operation field (the movement of the surgeon 204 and the assistant 203 at hand).

なお、以下の説明において、半天球カメラ111によって撮影された映像のうち施術に関するものを「第一映像」と称する場合があり、定点カメラ112によって撮影された映像のうち第一映像の撮影範囲の一部を撮影したものを「第二映像」と称する場合がある。   In the following description, the image related to the treatment among the images captured by the celestial sphere camera 111 may be referred to as a “first image”, and the image of the first image capturing range of the image captured by the fixed-point camera 112 may be referred to. A part of the image may be referred to as a “second image”.

サーバ装置120は、半天球カメラ111から第一映像を、定点カメラ112から第二映像を、それぞれ入力して所定の記憶領域に記憶する。従って、本発明の入力手段として機能する。
また、サーバ装置120に記憶される映像には、不図示の撮影装置又は医療機器等から取得した映像が含まれてもよいし、これらの撮影装置又は医療機器は医療映像システム100の内部構成としてもよいし、外部構成としてもよい。
The server device 120 receives the first image from the semi-celestial sphere camera 111 and the second image from the fixed point camera 112 and stores them in a predetermined storage area. Therefore, it functions as the input means of the present invention.
In addition, the image stored in the server device 120 may include an image obtained from a not-shown imaging device or a medical device or the like, and these imaging devices or medical devices may be included as an internal configuration of the medical image system 100. Or an external configuration.

パソコン端末131及びモバイル端末132は、サーバ装置120に記憶されている映像を表示する為のアプリケーションソフト(ビューア)がインストールされているコンピュータ機器である。
モバイル端末132は、主として手術室外で待機している医療関係者(麻酔科医等)が手術室で行われている施術の様子を確認する用途を想定したビューアをインストールしており、サーバ装置120に記憶される映像をライブストリーミングで配信を受けて表示することができる。
パソコン端末131は、主として手術後に手術内容を解析する用途を想定したビューアをインストールしており、サーバ装置120に記憶される映像の再生に係る機能に加えて、当該映像を資料用に編集する機能等も有している。
なお、パソコン端末131及びモバイル端末132にインストールされるビューアは、必ずしも本発明専用のアプリケーションソフトによって実現されなくてもよく、汎用のアプリケーションソフトやこれを改良又は変更したソフトによって実現されてもよい。
The personal computer terminal 131 and the mobile terminal 132 are computer devices in which application software (viewer) for displaying a video stored in the server device 120 is installed.
The mobile terminal 132 is installed with a viewer mainly intended for use by a medical staff (an anesthesiologist or the like) waiting outside the operating room to check the state of a treatment performed in the operating room. Can be distributed and displayed by live streaming.
The personal computer terminal 131 is installed with a viewer mainly intended for analyzing the contents of the operation after the operation, and in addition to the function related to the reproduction of the image stored in the server device 120, the function of editing the image for data. And so on.
Note that the viewer installed in the personal computer terminal 131 and the mobile terminal 132 may not necessarily be realized by the application software dedicated to the present invention, but may be realized by general-purpose application software or software obtained by improving or changing this.

パソコン端末131及びモバイル端末132は、共にディスプレイ装置とポインティングデバイスを有するコンピュータ機器であり、各々のディスプレイ装置の種別又は各々のポインティングデバイスの種別は特に制限されるものではない。
パソコン端末131及びモバイル端末132のいずれに係るディスプレイ装置においても、サーバ装置120から入力された第一映像及び第二映像を表示可能であり、本発明の表示手段を構成しうる。
パソコン端末131及びモバイル端末132のいずれに係るポインティングデバイスにおいても、ディスプレイ装置(画面に表示されている第一映像や第二映像等)に対するユーザの操作入力を受け付けた位置を検知可能であり、本発明の操作位置検知手段を構成しうる。
なお、本実施形態で説明するパソコン端末131の機能及びモバイル端末132の機能は、必ずしも一方のみが実行可能である必要はなく、一方の機能として説明したものの一部又は全部を他方が実行可能であってもよい。例えば、後述するモバイル端末132による第一映像及び第二映像に関する処理の一部又は全部は、パソコン端末131においても同様に実現できてもよい。
また、後述するモバイル端末132による第一映像及び第二映像に関する処理の一部又は全部は、必ずしもモバイル端末132が単体で実行可能である必要はなく、サーバ装置120が当該処理の一部(例えば、画像認識処理)を第一映像及び第二映像の動画ファイルに施した上でモバイル端末132に出力されてもよい。
The personal computer terminal 131 and the mobile terminal 132 are both computer devices having a display device and a pointing device, and the type of each display device or the type of each pointing device is not particularly limited.
The display device according to any one of the personal computer terminal 131 and the mobile terminal 132 can display the first video and the second video input from the server device 120, and can constitute the display unit of the present invention.
The pointing device according to any one of the personal computer terminal 131 and the mobile terminal 132 can detect the position at which the user's operation input to the display device (the first image or the second image displayed on the screen) is received. The operation position detecting means of the invention can be constituted.
Note that it is not necessary that only one of the functions of the personal computer terminal 131 and the function of the mobile terminal 132 described in the present embodiment can be executed, and that some or all of the functions described as one function can be executed by the other. There may be. For example, a part or all of the processing regarding the first video and the second video by the mobile terminal 132, which will be described later, may be similarly realized in the personal computer terminal 131.
In addition, the mobile terminal 132 does not necessarily need to be able to execute part or all of the processing relating to the first video and the second video by the mobile terminal 132, which will be described later. , Image recognition processing) on the moving image files of the first video and the second video, and then output to the mobile terminal 132.

<モバイル端末132の表示について>
次に、モバイル端末132の表示について説明する。
モバイル端末132は、サーバ装置120に記憶されている第一映像及び第二映像を、サーバ装置120から取得し、それぞれを個別に又は同時に表示可能なタッチパネルである。ここでタッチパネルとは、ディスプレイ装置の画面がポインティングデバイスになっている装置である。
<About display on mobile terminal 132>
Next, the display of the mobile terminal 132 will be described.
The mobile terminal 132 is a touch panel capable of acquiring the first video and the second video stored in the server device 120 from the server device 120 and displaying each of them separately or simultaneously. Here, the touch panel is a device in which the screen of the display device is a pointing device.

モバイル端末132は、第一映像に対する画像認識処理によって、当該第一映像に撮影されている特定領域を特定する機能(以下、特定手段と称する)を有する。
本実施形態における特定領域とは、具体的には、第一映像に撮影されている術野であるものとして説明するが、本発明の実施はこれに限られず第一映像に撮影されている別の領域を特定領域としてもよい。
なお、第一映像に撮影されている術野を特定する画像認識処理については、後述する。
The mobile terminal 132 has a function of specifying a specific area photographed in the first video by performing image recognition processing on the first video (hereinafter, referred to as specifying means).
The specific region in the present embodiment will be specifically described as an operation field photographed in the first video. However, the present invention is not limited to this. May be set as the specific area.
Note that the image recognition processing for specifying the operation field captured in the first video will be described later.

モバイル端末132は、第一映像を表示している場合にユーザの操作入力を受け付けた場合、当該操作入力を受け付けた位置が、特定領域又はその近傍に設定される操作入力許容領域であるか否かを判定する機能(以下、判定手段と称する)を有する。
ここで操作入力許容領域とは、特定手段による処理に基づいて設定されるモバイル端末132における画面上の領域であり、特定領域に包含されるものであってもよいし、その一部が特定領域に重畳しており且つ残りが特定領域から外れるものであってもよいし、その全部が特定領域から外れており且つ当該特定領域の近傍に位置するものであってもよい。
When receiving the user's operation input while displaying the first video, the mobile terminal 132 determines whether or not the position where the operation input has been received is an operation input allowable region set in the specific region or its vicinity. (Hereinafter, referred to as determination means).
Here, the operation input allowable area is an area on the screen of the mobile terminal 132 that is set based on the processing by the specifying unit, and may be included in the specific area or a part of the specific area. And the rest may deviate from the specific area, or all of them may be deviated from the specific area and located near the specific area.

モバイル端末132は、上記の判定手段による判定が肯定された場合に第二映像を表示する。ここで、当該場合にモバイル端末132によって表示される第二映像の態様は、ユーザが視認可能なものであれば特に制限されず、第二映像を第一映像の上位層(レイヤー)にポップアップする態様であってもよいし、第二映像と第一映像とを別に表示領域(ウインドウ)に分けて表示する態様であってもよいし、第一映像を消失させた上で第二映像を表示する態様であってもよい。   The mobile terminal 132 displays the second video when the determination by the determination unit is affirmed. Here, the mode of the second video displayed by the mobile terminal 132 in this case is not particularly limited as long as the user can visually recognize the second video, and the second video is popped up on an upper layer (layer) of the first video. The second video and the first video may be separately displayed in a display area (window) and displayed, or the second video may be displayed after the first video is erased. It may be a mode of doing.

上記のように、モバイル端末132は、比較的広い領域を撮影した第一映像の表示中に受け付けた操作入力の位置が、画像認識処理に基づいて特定される術野(特定領域)又はその近傍の範囲に設定される判定上の領域(操作入力許容領域)である場合に、比較的細部まで確認容易な第二映像を表示させることができる。従って、ユーザは、直感的な操作によって、施術に関する映像から必要な情報を得ることができる。   As described above, the mobile terminal 132 determines whether the position of the operation input received during the display of the first video image of the relatively large area is at or near the operative field (specific area) specified based on the image recognition processing. In the case of the determination area (operation input allowable area) set in the range of, the second image which is relatively easy to confirm can be displayed. Therefore, the user can obtain necessary information from the video regarding the treatment by intuitive operation.

<第一映像に撮影されている術野を特定する画像認識処理>
上述したモバイル端末132の画像認識処理について、詳細に説明する。
本発明者は、当該画像認識処理を汎用的なものにするため、施術者の身体部位を検出する画像認識処理によって術野を特定する方式を採用することにした。外科手術は複数の施術者でチームを組んで行われるのが一般的であり、上記のような画像認識処理であれば処理の対象となる被写体が存在しない可能性がほとんどないからである。
なお、特定の術具や医療機器(医療ロボットを含む)を用いる施術に特化するのであれば、施術者の身体部位に代えて又は加えて、術具や医療機器を画像認識処理によって検出することも考えられる。
<Image recognition processing to identify the surgical field captured in the first video>
The above-described image recognition processing of the mobile terminal 132 will be described in detail.
The present inventor has adopted a method of specifying an operation field by image recognition processing for detecting a body part of a practitioner to make the image recognition processing general-purpose. This is because a surgical operation is generally performed in a team of a plurality of practitioners, and there is almost no possibility that there is no subject to be processed in the above-described image recognition processing.
In addition, if it is specialized in a treatment using a specific surgical tool or medical device (including a medical robot), the surgical tool or the medical device is detected by image recognition processing instead of or in addition to the body part of the operator. It is also possible.

本実施形態において「施術者の身体部位を検出する」とは、施術者の実際の身体部位のみに着目して検出する処理に限られず、例えば、保護メガネを検出することによって施術者の目を検出したり、手術帽を検出することによって施術者の頭部を検出したり、手術マスクを検出することによって施術者の口を検出したりすることも含むものとする。
「施術者の身体部位を検出する画像認識処理」の方式については適宜選択可能である。本発明者による試行錯誤の結果として、身体部位の形状(輪郭)を抽出する方式が最も汎用性が高かい結果となったが、無影灯を用いる施術においては術野の色彩や輝度を加味して身体部位を抽出すると検出精度が高くなりうる。また、対象となる身体部位の種別によっては、その動き(動作パターン)を加味して身体部位を抽出することも考えられる。
In the present embodiment, "detecting the body part of the practitioner" is not limited to the processing of focusing on only the actual body part of the practitioner, and for example, the eyes of the practitioner may be detected by detecting safety glasses. This includes detecting, detecting the head of the practitioner by detecting the surgical cap, and detecting the mouth of the practitioner by detecting the surgical mask.
The method of “image recognition processing for detecting a body part of a practitioner” can be appropriately selected. As a result of trial and error by the inventor, the method of extracting the shape (contour) of the body part has the highest versatility. However, in the treatment using the surgical light, the color and brightness of the surgical field are taken into account. If the body part is extracted in this way, the detection accuracy can be increased. Further, depending on the type of the target body part, the body part may be extracted in consideration of the movement (movement pattern).

モバイル端末132の画像認識処理の一具体例を、図5及び図6を用いて説明する。
図5及び図6は、モバイル端末132の画像認識処理を説明するための模式図であり、実際に表示される映像とは異なる。これらの図において網掛けした箇所が、モバイル端末132による画像認識処理によって検出された身体部位として説明する。
A specific example of the image recognition processing of the mobile terminal 132 will be described with reference to FIGS.
5 and 6 are schematic diagrams for explaining the image recognition processing of the mobile terminal 132, and are different from the actually displayed video. In these figures, shaded portions will be described as body parts detected by the image recognition processing by the mobile terminal 132.

この具体例において、モバイル端末132によって検出される身体部位は、施術者の手又は腕である。
例えば、図3に図示した展開映像に対する画像認識処理によって、執刀医204、助手203、医療スタッフ206及び医療スタッフ207の手や腕が検出されたものとする(図5参照)。
ここで、医療スタッフ205、医療スタッフ208及び医療スタッフ209については、他の被写体に隠れて十分に手や腕が撮影されていないため、当該画像認識処理によって手や腕を検出することができない。また、医療スタッフ210及び医療スタッフ211については、半天球カメラ111から離れており、十分な大きさで撮影されていないため、当該画像認識処理によって手や腕を検出することができない。
このように、モバイル端末132は、画像認識処理によって展開映像に撮影されている身体部位が複数検出された場合、検出された手や腕(身体部位)が密集している位置の近傍を術野OFとして特定する(図6参照)。
ここでは、執刀医204と助手203の近傍が術野OFに該当する。
In this specific example, the body part detected by the mobile terminal 132 is a practitioner's hand or arm.
For example, it is assumed that the hands and arms of the surgeon 204, the assistant 203, the medical staff 206, and the medical staff 207 have been detected by the image recognition processing on the developed video illustrated in FIG. 3 (see FIG. 5).
Here, regarding the medical staff 205, the medical staff 208, and the medical staff 209, the hands and arms cannot be detected by the image recognition processing because the hands and arms are not sufficiently photographed behind other subjects. In addition, the medical staff 210 and the medical staff 211 are far from the semi-celestial sphere camera 111 and are not photographed with a sufficient size, so that hands and arms cannot be detected by the image recognition processing.
As described above, when a plurality of body parts photographed in the developed image are detected by the image recognition processing, the mobile terminal 132 determines the vicinity of the position where the detected hands and arms (body parts) are densely close to the surgical field. It is specified as an OF (see FIG. 6).
Here, the vicinity of the surgeon 204 and the assistant 203 corresponds to the operation field OF.

続いて、上記の画像認識処理とは別の具体例を、図7及び図8を用いて説明する。
図7及び図8は、図5及び図6と同様に、モバイル端末132の画像認識処理を説明するための模式図であり、実際に表示される映像とは異なる。これらの図において網掛けした箇所が、モバイル端末132による画像認識処理によって検出された身体部位として説明する。
Next, another specific example different from the above-described image recognition processing will be described with reference to FIGS.
7 and 8 are schematic diagrams for explaining the image recognition processing of the mobile terminal 132, similar to FIGS. 5 and 6, and are different from the actually displayed video. In these figures, shaded portions will be described as body parts detected by the image recognition processing by the mobile terminal 132.

この具体例において、モバイル端末132によって検出される身体部位は、施術者の顔(頭部)であって、その検出には両目を特徴点とする画像認識処理が行われる。
例えば、図3に図示した展開映像に対する画像認識処理によって、執刀医204、医療スタッフ206〜209の顔が検出されたものとする(図7参照)。
ここで、助手203の顔は横向きであり、医療スタッフ205は後向きであるため、両目が撮影されておらず、当該画像認識処理によって顔を検出することができない。また、医療スタッフ210及び医療スタッフ211については、半天球カメラ111から離れており、十分な大きさで撮影されていないため、当該画像認識処理によって顔を検出することができない。
そして、モバイル端末132は、検出した顔と両目から施術者の位置と向きを判定し、判定した位置が所定値以下に近接している施術者が複数検出された場合、複数の施術者の向きが交差する部分を術野として特定する(図8参照)。
ここで、モバイル端末132は、近接している施術者として執刀医204、医療スタッフ208及び医療スタッフ209を検出しており、それぞれの視線方向V4、視線方向V8及び視線方向V9を施術者の向きとして、それぞれ判定している。そして、モバイル端末132は、視線方向V4と視線方向V8の交点IP1の位置と、視線方向V4と視線方向V9の交点IP2の位置と、を含む領域を術野OFとして特定している。なお、視線方向V8と視線方向V9とは交差しないため、術野OFの特定に用いられない。
In this specific example, the body part detected by the mobile terminal 132 is the face (head) of the practitioner, and the detection is performed by image recognition processing using both eyes as feature points.
For example, it is assumed that the faces of the surgeon 204 and the medical staffs 206 to 209 have been detected by the image recognition processing on the developed video illustrated in FIG. 3 (see FIG. 7).
Here, since the face of the assistant 203 is facing sideways and the medical staff 205 is facing backward, both eyes are not photographed, and the face cannot be detected by the image recognition processing. In addition, the medical staff 210 and the medical staff 211 are far from the hemispherical camera 111 and are not photographed with a sufficient size, so that a face cannot be detected by the image recognition processing.
Then, the mobile terminal 132 determines the position and orientation of the practitioner from the detected face and both eyes, and when a plurality of practitioners whose detected positions are close to a predetermined value or less are detected, the directions of the plurality of practitioners are determined. Are identified as the surgical field (see FIG. 8).
Here, the mobile terminal 132 detects the surgeon 204, the medical staff 208, and the medical staff 209 as the practitioners in proximity to each other, and determines the gaze direction V4, the gaze direction V8, and the gaze direction V9 of the practitioner. Respectively. Then, the mobile terminal 132 specifies a region including the position of the intersection IP1 between the line of sight V4 and the line of sight V8 and the position of the intersection IP2 between the line of sight V4 and the line of sight V9 as the surgical field OF. In addition, since the line-of-sight direction V8 and the line-of-sight direction V9 do not intersect, they are not used for specifying the operation field OF.

図6と図8とを比較すれば明かであるように、同じ展開画像を対象として画像認識処理を行ったとしても、採用する画像認識処理の方式によって特定される術野OFの位置は変動しうる。
従って、モバイル端末132による画像認識処理の方式を適宜変更し、又は組み合わせることによって、術野の特定精度を高めることも考えられる。
As is clear from a comparison between FIG. 6 and FIG. 8, even if the image recognition processing is performed on the same developed image, the position of the surgical field OF specified by the adopted image recognition processing method fluctuates. sell.
Therefore, it is conceivable to improve the accuracy of specifying the operative field by appropriately changing or combining the method of the image recognition processing by the mobile terminal 132.

<本発明の変形例について>
ここまで各図を用いて説明される実施形態に即して本発明を説明したが、本発明は上述の実施形態に限定されるものではなく、本発明の目的が達成される限りにおける種々の変形、改良等の態様も含む。
なお、以下に説明する変形例において、パソコン端末131の機能又はモバイル端末132の機能として説明するものであっても、必ずしも一方のみが実行可能である必要はなく、一方の機能として説明したものの一部又は全部を他方が実行可能であってもよい。
<Regarding Modification of the Present Invention>
Although the present invention has been described with reference to the embodiments described with reference to the drawings, the present invention is not limited to the above-described embodiments, and various modifications may be made as long as the object of the present invention is achieved. It also includes aspects such as modification and improvement.
In the modified example described below, even if the function is described as the function of the personal computer terminal 131 or the function of the mobile terminal 132, it is not always necessary that only one of the functions can be executed. Some or all may be executable by the other.

上記の実施形態の説明においては図1に図示する構成要素を前提として説明したが、本発明の各構成要素は、その機能を実現するように形成されていればよい。従って、本発明の各構成要素は、個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。
例えば、本発明に係る医療動画処理システムには、半天球カメラ111に相当する撮影装置が含まれなくてもよく、システム外部の撮影装置から取得した展開映像を用いて本発明が実施されてもよい。
Although the above embodiment has been described on the premise that the components shown in FIG. 1 are used, each component of the present invention may be formed so as to realize its function. Therefore, each component of the present invention does not need to exist independently, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It is permitted that a certain component is a part of another component, that a part of a certain component overlaps a part of another component, and the like.
For example, the medical moving image processing system according to the present invention may not include a photographing device corresponding to the celestial sphere camera 111, and the present invention may be implemented using a developed image acquired from a photographing device outside the system. Good.

上述の実施形態において説明した半天球カメラ111の構成や半天球カメラ111による撮影方式は一具体例であって、本発明の実施はこれに限られない。
例えば、単眼の広角レンズを用いる撮影装置や、この撮影装置によって撮影された展開映像を用いて本発明が実施されてもよい。
The configuration of the celestial sphere camera 111 and the shooting method by the celestial sphere camera 111 described in the above-described embodiment are specific examples, and the present invention is not limited thereto.
For example, the present invention may be implemented using a photographing device using a monocular wide-angle lens, or a developed image photographed by the photographing device.

上述の実施形態において、モバイル端末132が検出する施術者の身体部位の具体例として手、腕及び頭部を挙げたが、これに代えて又は加えて、その他の部位を検出してもよい。   In the above embodiment, the hands, arms, and head are given as specific examples of the practitioner's body part detected by the mobile terminal 132. However, other parts may be detected instead or in addition thereto.

上述の実施形態において、モバイル端末132は、両目を特徴点として施術者の顔を検出する旨を説明したが、これに代えて又は加えて、その他の部位(鼻、口、耳等)を特徴点とする画像認識処理によって顔を検出して施術者の位置や向きを判定してもよい。   In the above-described embodiment, the description has been given of the case where the mobile terminal 132 detects the face of the practitioner using both eyes as feature points. However, instead of or in addition to this, other parts (nose, mouth, ears, etc.) are characterized. The face and the orientation of the practitioner may be determined by detecting the face by image recognition processing using points.

上述の実施形態において、モバイル端末132による画像認識処理で特定される特定領域は術野のみを挙げたが、他の特定領域を特定できる機能を有してもよい。例えば、第一映像が施術に用いる医療機器を含めて手術室を撮影した映像であり、第二映像が医療機器に正対して撮影した映像である場合、モバイル端末132(特定手段)は、第一映像に撮影されている医療機器の位置を特定領域として特定することができてもよい。
このとき、モバイル端末132(特定手段)は、第一映像に撮影されている複数のマーカを画像認識処理によって検出し、検出した複数のマーカの位置に基づいて医療機器の位置を特定してもよい(例えば、手術の事前に医療機器の画面の四隅にマーカを付しておき、複数のマーカに囲まれている方形の領域を医療機器の位置として特定する等)。
或いは、モバイル端末132は、一又は複数の医療機器について形状や色彩等をパターン認識しており、第一映像に撮影されている対象物から当該パターン認識にマッチングするものを医療機器として特定してもよい。
In the above-described embodiment, the specific area specified by the image recognition processing by the mobile terminal 132 includes only the operative field, but may have a function of specifying another specific area. For example, when the first image is an image of the operating room including the medical device used for the operation and the second image is an image of the medical device facing the medical device, the mobile terminal 132 (identifying unit) The position of the medical device captured in one image may be specified as the specific region.
At this time, the mobile terminal 132 (identifying unit) detects a plurality of markers captured in the first video by the image recognition process, and identifies the position of the medical device based on the detected positions of the plurality of markers. Good (for example, markers are attached to the four corners of the screen of the medical device before surgery, and a rectangular area surrounded by a plurality of markers is specified as the position of the medical device).
Alternatively, the mobile terminal 132 performs pattern recognition on the shape, color, and the like of one or a plurality of medical devices, and specifies, as a medical device, an object captured in the first video that matches the pattern recognition. Is also good.

本実施形態は以下の技術思想を包含する。
(1)施術に関する第一映像と、前記第一映像の撮影範囲の一部を撮影した第二映像と、を入力する入力手段と、前記入力手段から入力された前記第一映像及び前記第二映像を表示可能な表示手段と、前記表示手段に対するユーザの操作入力を受け付けた位置を検知可能な操作位置検知手段と、前記第一映像に対する画像認識処理によって、当該第一映像に撮影されている特定領域を特定する特定手段と、前記表示手段が前記第一映像を表示している場合に前記操作位置検知手段がユーザの操作入力を受け付けた場合、当該操作入力を受け付けた位置が、前記特定領域又はその近傍に設定されている操作入力許容領域であるか否かを判定する判定手段と、を有しており、前記表示手段は、前記判定手段による判定が肯定された場合に前記第二映像を表示する医療映像システム。
(2)前記第一映像は、術野を含めて手術室を撮影した映像であり、前記第二映像は、前記術野に正対して撮影した映像であり、前記特定手段は、前記第一映像に撮影されている前記術野を前記特定領域として特定する(1)に記載の医療映像システム。
(3)前記第一映像は、施術に用いる医療機器を含めて手術室を撮影した映像であり、前記第二映像は、前記医療機器に正対して撮影した映像であり、前記特定手段は、前記第一映像に撮影されている前記医療機器の位置を前記特定領域として特定する(1)に記載の医療映像システム。
(4)前記特定手段は、前記第一映像に撮影されている複数のマーカを画像認識処理によって検出し、検出した複数の前記マーカの位置に基づいて前記特定領域を特定する(3)に記載の医療映像システム。
(5)前記第一映像は、互いに相違する方向を撮影した映像を複数結合して得られる映像であり、且つ水平方向の展開角度が360度に達することを特徴とする(1)から(4)のいずれか一つに記載の医療映像システム。
This embodiment includes the following technical concept.
(1) Input means for inputting a first image relating to a treatment and a second image obtained by photographing a part of the photographing range of the first image, and the first image and the second image inputted from the input means Display means capable of displaying an image, operation position detecting means capable of detecting a position at which a user's operation input to the display means has been received, and image recognition processing on the first image, whereby the first image has been captured. A specifying unit that specifies a specific area; and, when the operation position detecting unit receives an operation input of a user when the display unit is displaying the first video, the position at which the operation input is received is the identification unit. Determining means for determining whether or not the area is an operation input allowable area set in or near the area, wherein the display means is configured to perform the second operation when the determination by the determining means is affirmed. Medical imaging system to display the image.
(2) The first image is an image of an operating room including an operation field, the second image is an image of the operation field, and the identifying unit includes the first image. The medical imaging system according to (1), wherein the operation field captured in the video is specified as the specific area.
(3) The first image is an image of an operating room including a medical device used for treatment, the second image is an image of the medical device taken directly, and the specifying unit includes: The medical image system according to (1), wherein a position of the medical device captured in the first image is specified as the specific region.
(4) The specifying means detects a plurality of markers photographed in the first video by an image recognition process, and specifies the specific region based on positions of the detected plurality of markers. Medical imaging system.
(5) The first image is an image obtained by combining a plurality of images captured in different directions, and the horizontal development angle reaches 360 degrees. The medical imaging system according to any one of the above.

100 医療映像システム
111 半天球カメラ
112 定点カメラ
120 サーバ装置
131 パソコン端末
132 モバイル端末
201 ディスプレイ装置
202 ガイドレール
203 助手
204 執刀医
205〜211 医療スタッフ
REFERENCE SIGNS LIST 100 Medical imaging system 111 Semispherical camera 112 Fixed point camera 120 Server device 131 Personal computer terminal 132 Mobile terminal 201 Display device 202 Guide rail 203 Assistant 204 Surgeon 205 to 211 Medical staff

Claims (5)

施術に関する第一映像と、前記第一映像の撮影範囲の一部を撮影した第二映像と、を入力する入力手段と、
前記入力手段から入力された前記第一映像及び前記第二映像を表示可能な表示手段と、
前記表示手段に対するユーザの操作入力を受け付けた位置を検知可能な操作位置検知手段と、
前記第一映像に対する画像認識処理によって、当該第一映像に撮影されている特定領域を特定する特定手段と、
前記表示手段が前記第一映像を表示している場合に前記操作位置検知手段がユーザの操作入力を受け付けた場合、当該操作入力を受け付けた位置が、前記特定領域又はその近傍に設定されている操作入力許容領域であるか否かを判定する判定手段と、
を有しており、
前記表示手段は、前記判定手段による判定が肯定された場合に前記第二映像を表示する医療映像システム。
An input means for inputting a first video relating to the treatment and a second video of a part of the shooting range of the first video,
Display means capable of displaying the first video and the second video input from the input means,
Operation position detection means capable of detecting a position at which a user's operation input to the display means is received,
By image recognition processing for the first video, a specifying unit that specifies a specific region that has been captured in the first video,
When the operation position detection unit receives an operation input of the user while the display unit is displaying the first image, the position at which the operation input is received is set to the specific area or its vicinity. Determining means for determining whether or not the operation input is permitted;
Has,
The medical image system, wherein the display unit displays the second image when the determination by the determination unit is affirmed.
前記第一映像は、術野を含めて手術室を撮影した映像であり、
前記第二映像は、前記術野に正対して撮影した映像であり、
前記特定手段は、前記第一映像に撮影されている前記術野を前記特定領域として特定する請求項1に記載の医療映像システム。
The first image is an image of the operating room including the surgical field,
The second video is a video taken directly facing the surgical field,
The medical imaging system according to claim 1, wherein the identification unit identifies the operation field captured in the first video as the specific area.
前記第一映像は、施術に用いる医療機器を含めて手術室を撮影した映像であり、
前記第二映像は、前記医療機器に正対して撮影した映像であり、
前記特定手段は、前記第一映像に撮影されている前記医療機器の位置を前記特定領域として特定する請求項1に記載の医療映像システム。
The first image is an image of an operating room including a medical device used for the operation,
The second video is a video taken directly facing the medical device,
The medical image system according to claim 1, wherein the specifying unit specifies a position of the medical device captured in the first image as the specific region.
前記特定手段は、
前記第一映像に撮影されている複数のマーカを画像認識処理によって検出し、
検出した複数の前記マーカの位置に基づいて前記特定領域を特定する請求項3に記載の医療映像システム。
The specifying means includes:
Detecting a plurality of markers captured in the first video by image recognition processing,
The medical imaging system according to claim 3, wherein the specific area is specified based on positions of the plurality of detected markers.
前記第一映像は、互いに相違する方向を撮影した映像を複数結合して得られる映像であり、且つ水平方向の展開角度が360度に達することを特徴とする請求項1から4のいずれか一項に記載の医療映像システム。   5. The image according to claim 1, wherein the first image is an image obtained by combining a plurality of images captured in different directions, and a horizontal development angle reaches 360 degrees. 6. Medical imaging system according to the item.
JP2018141822A 2017-11-20 2018-07-27 Medical video system Active JP6436606B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018141822A JP6436606B1 (en) 2018-07-27 2018-07-27 Medical video system
CN201880074894.5A CN111373741B (en) 2017-11-20 2018-11-01 Medical safety system
PCT/JP2018/040760 WO2019098052A1 (en) 2017-11-20 2018-11-01 Medical safety system
US16/763,305 US20200337798A1 (en) 2017-11-20 2018-11-01 Medical safety system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141822A JP6436606B1 (en) 2018-07-27 2018-07-27 Medical video system

Publications (2)

Publication Number Publication Date
JP6436606B1 JP6436606B1 (en) 2018-12-12
JP2020017932A true JP2020017932A (en) 2020-01-30

Family

ID=64655911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141822A Active JP6436606B1 (en) 2017-11-20 2018-07-27 Medical video system

Country Status (1)

Country Link
JP (1) JP6436606B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109936697B (en) * 2019-04-29 2020-12-22 嘉兴奥恒进出口有限公司 Video shooting target tracking method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244480A (en) * 2011-05-20 2012-12-10 Toshiba Teli Corp All-round monitored image display processing system
JP2013062559A (en) * 2010-09-02 2013-04-04 Dodwell Bms Ltd Imaging monitor screen and omnidirectional imaging screen monitoring system
JP6355146B1 (en) * 2017-11-20 2018-07-11 株式会社Medi Plus Medical safety system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013062559A (en) * 2010-09-02 2013-04-04 Dodwell Bms Ltd Imaging monitor screen and omnidirectional imaging screen monitoring system
JP2012244480A (en) * 2011-05-20 2012-12-10 Toshiba Teli Corp All-round monitored image display processing system
JP6355146B1 (en) * 2017-11-20 2018-07-11 株式会社Medi Plus Medical safety system

Also Published As

Publication number Publication date
JP6436606B1 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
WO2018030515A1 (en) Line-of-sight detection device
JP2004318823A (en) Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system
US10347050B1 (en) Augmented reality device to warp images
JP2006189712A (en) Information presenting apparatus, information presenting method and program
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
WO2017142223A1 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
US20060152478A1 (en) Projection of synthetic information
JP6355146B1 (en) Medical safety system
KR100960269B1 (en) Apparatus of estimating user&#39;s gaze and the method thereof
JP6436606B1 (en) Medical video system
US20020080999A1 (en) System and method for highlighting a scene under vision guidance
KR20130088654A (en) Apparatus and method for gaze tracking based on multiple camera
JP2741063B2 (en) Wide-field display device
CN107403406B (en) Method and system for converting between solid image and virtual image
US20080123956A1 (en) Active environment scanning method and device
JP6652446B2 (en) Work support device
CN111373741B (en) Medical safety system
KR20180116044A (en) Augmented reality device and method for outputting augmented reality therefor
JP7094759B2 (en) System, information processing method and program
JP5781017B2 (en) Video conversation system
JP4647260B2 (en) Ophthalmic imaging system
JP5939469B2 (en) Browsing device and browsing system
US20030112415A1 (en) Apparatus for projection and capture of a display interface
JP2017032741A (en) Display device, display control method and program for the same
JP4478047B2 (en) Information presentation apparatus, information presentation method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180803

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6436606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350