JP6507252B2 - 機器操作装置、機器操作方法、及び電子機器システム - Google Patents
機器操作装置、機器操作方法、及び電子機器システム Download PDFInfo
- Publication number
- JP6507252B2 JP6507252B2 JP2017537625A JP2017537625A JP6507252B2 JP 6507252 B2 JP6507252 B2 JP 6507252B2 JP 2017537625 A JP2017537625 A JP 2017537625A JP 2017537625 A JP2017537625 A JP 2017537625A JP 6507252 B2 JP6507252 B2 JP 6507252B2
- Authority
- JP
- Japan
- Prior art keywords
- neck
- user
- movement
- sight
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 47
- 230000033001 locomotion Effects 0.000 claims description 137
- 238000001514 detection method Methods 0.000 claims description 106
- 238000011017 operating method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 description 33
- 210000003128 head Anatomy 0.000 description 27
- 230000000007 visual effect Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000005286 illumination Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 210000004237 neck muscle Anatomy 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 238000011328 necessary treatment Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6822—Neck
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0487—Special user inputs or interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Optics & Photonics (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Dermatology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Endoscopes (AREA)
- Eye Examination Apparatus (AREA)
Description
図1は、本発明の第1の実施形態における電子機器システムの一例の全体構成を示す図であり、図2は本発明の第1の実施形態における機器操作装置の一例を示すブロック図である。
図10は、第2の実施形態における機器操作装置30の一例を示すブロック図である。図10において、図2に示した第1の実施形態の機器操作装置30と同じ構成要素には同じ符号を付してあり、以下では異なる点のみ説明する。
図13は、図1に示した電子機器20として内視鏡装置100を用いる場合の電子機器システム(内視鏡システム10)を示す外観図である。
内視鏡本体110は、手元操作部102と、この手元操作部102に連設される挿入部104とを備える。術者は手元操作部102を把持して操作し、挿入部104を被験者の体内に挿入して観察を行う。挿入部104は、手元操作部102側から順に、軟性部112、湾曲部114、先端部116で構成されている。先端部116には、撮影光学系130(図14参照)、照明部123、送水ノズル124、鉗子口126等が設けられる。
図15は内視鏡装置100の挿入部104を被検体内に挿入した状態を示す図であり、撮影光学系130を介して観察画像を取得する様子を示している。図15中、参照符号IAは撮影範囲を示し、参照符号tmは腫瘍(図15中黒色で隆起している部分)を示す。
図14に示すように、光源装置300は、光源310、絞り330、及び集光レンズ340等から構成されており、照明用の光をライトガイド170に入射させる。光源310は、可視光源310A及び赤外光源310Bを備えており、可視光及び赤外線の一方または両方を照射可能である。これにより、ライトガイドコネクタ108(図13参照)を光源装置300に連結することによって、光源装置300から照射された照明光がライトガイド170を介して照明用レンズ123A、123Bに伝送され、照明用レンズ123A、123Bから観察範囲に照射される。
次に、図14に基づき内視鏡プロセッサ200の構成を説明する。内視鏡プロセッサ200は、内視鏡装置100から出力される画像信号を、画像入力コントローラ202を介して入力し、画像処理部204において必要な画像処理を行ってビデオ出力部206を介して出力する。これによりモニタ400に観察画像が表示される。これらの処理はCPU(Central Processing Unit;中央処理装置)210の制御下で行われる。画像処理部204では、ホワイトバランス調整等の画像処理の他、モニタ400に表示する画像の切替または重畳表示、電子ズーム処理、操作モードに応じた画像の表示及び切替、画像信号からの特定成分(例えば輝度信号)の抽出等を行う。
図13を用いて、操作対象機器が医療機器である内視鏡装置100である場合について説明したが、本発明において操作対象機器は医療機器でなくてもよい。医療機器の他にも、スマートフォン、タブレット端末、ゲーム機等の携帯機器の操作や、車両の運転等の機器操作のために両手を自由に使えない状況や、機器配置に制約がある状況での機器操作に適用できる。また、操作対象機器は1つに限られず、複数の機器から視線及び頸部の動きに基づいて選択するようにしてもよい。また本発明において、操作対象機器や機器の使用状況、操作の種類や重要度等によってはジェスチャを頭部を動かさないで頸部のみを動かす動作で行うようにしてもよいし、視線検出の対象となるユーザとジェスチャ検出の対象となるユーザを別人としてもよい。
Claims (10)
- ユーザの視線を検出する視線検出部と、
前記ユーザの頸部に装着され前記ユーザの頸部の動きを検出する頸部装着端末と、
前記検出された視線及び前記検出された頸部の動きに基づいて、操作対象機器及び前記操作対象機器に対する操作内容のうちの少なくとも一方を判断する判断部と、
前記判断に従って前記操作対象機器を制御する制御部と、
を備え、
前記視線検出部は、前記頸部装着端末が前記頸部の動きの検出を開始したら前記視線の検出を停止し、前記頸部装着端末が頸部の動きの検出を終了したら前記視線の検出を開始する、機器操作装置。 - 前記判断部は、
前記検出された視線に基づいて前記操作対象機器及び前記操作内容のうちの少なくとも一方を判断し、
前記検出された頸部の動きに基づいて前記判断を確定する、請求項1に記載の機器操作装置。 - 前記視線検出部は前記視線の移動を検出し、
前記判断部は、前記検出した視線の移動に基づいて、前記操作対象機器及び前記操作内容のうちの少なくとも一方を判断する、請求項1または2に記載の機器操作装置。 - 前記操作内容は、前記制御部が前記操作対象機器に実行させる機能と、前記機能の実行条件と、を含む、請求項1から3のいずれか1項に記載の機器操作装置。
- 前記頸部装着端末により検出された前記ユーザの喉の振動から前記ユーザの音声を認識する音声認識部と、を備える請求項1から4のいずれか1項に記載の機器操作装置。
- 前記認識した音声を記録する音声記録部を備える請求項5に記載の機器操作装置。
- 前記判断部は、前記検出された頸部の動きが閾値よりも大きい場合に前記視線の検出を無効にする、
請求項1から6のいずれか1項に記載の機器操作装置。 - 請求項1から7のいずれか1項に記載の機器操作装置と、
前記操作対象機器である電子機器と、
を含む電子機器システム。 - 前記電子機器は医療機器である、請求項8に記載の電子機器システム。
- ユーザの視線を検出する視線検出部と、前記ユーザの頸部に装着され前記ユーザの頸部の動きを検出する頸部装着端末と、を備える機器操作装置の機器操作方法であって、
前記検出された視線及び前記検出された頸部の動きに基づいて、操作対象機器及び前記操作対象機器に対する操作内容のうちの少なくとも一方を判断する判断工程と、
前記判断に従って前記操作対象機器を制御する制御工程と、
を含み、
前記頸部の動きの検出を開始したら前記視線の検出を停止し、前記頸部の動きの検出を終了したら前記視線の検出を開始する、機器操作方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015174575 | 2015-09-04 | ||
JP2015174575 | 2015-09-04 | ||
PCT/JP2016/070073 WO2017038248A1 (ja) | 2015-09-04 | 2016-07-07 | 機器操作装置、機器操作方法、及び電子機器システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017038248A1 JPWO2017038248A1 (ja) | 2018-07-12 |
JP6507252B2 true JP6507252B2 (ja) | 2019-04-24 |
Family
ID=58186990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017537625A Active JP6507252B2 (ja) | 2015-09-04 | 2016-07-07 | 機器操作装置、機器操作方法、及び電子機器システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10585476B2 (ja) |
EP (1) | EP3346368B1 (ja) |
JP (1) | JP6507252B2 (ja) |
WO (1) | WO2017038248A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018198685A (ja) * | 2017-05-26 | 2018-12-20 | ソニー株式会社 | 制御装置、制御方法、および手術システム |
US20210064334A1 (en) * | 2018-01-18 | 2021-03-04 | Mitsubishi Electric Corporation | Device operation apparatus, device operation system and device operation method |
JP2021060824A (ja) * | 2019-10-07 | 2021-04-15 | 株式会社Fuji | 基板作業機 |
JP2023115808A (ja) | 2022-02-08 | 2023-08-21 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、および記録媒体 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04372012A (ja) * | 1991-06-20 | 1992-12-25 | Fuji Xerox Co Ltd | 入力装置 |
JP3219001B2 (ja) * | 1997-01-07 | 2001-10-15 | 日本電気株式会社 | 頭部動き検出装置 |
JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
JP2001100903A (ja) | 1999-09-28 | 2001-04-13 | Sanyo Electric Co Ltd | 視線検出機能搭載装置 |
JP2001299691A (ja) | 2000-04-25 | 2001-10-30 | Olympus Optical Co Ltd | 内視鏡装置の操作システム |
US20020110252A1 (en) * | 2001-02-12 | 2002-08-15 | Chang-Ming Liu | Microphone assembly |
JP5159041B2 (ja) | 2006-01-30 | 2013-03-06 | 株式会社東芝 | 超音波診断装置およびその画像処理プログラム |
JP2008046802A (ja) * | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム |
JP4884417B2 (ja) * | 2008-04-01 | 2012-02-29 | 富士フイルム株式会社 | 携帯型電子装置及びその制御方法 |
WO2012099223A1 (ja) * | 2011-01-21 | 2012-07-26 | 山形カシオ株式会社 | 水中通話装置 |
US20130147686A1 (en) * | 2011-12-12 | 2013-06-13 | John Clavin | Connecting Head Mounted Displays To External Displays And Other Communication Networks |
CN103369418A (zh) * | 2012-03-27 | 2013-10-23 | 新兴盛科技股份有限公司 | 喉震式麦克风及包含该麦克风的通讯免持装置 |
JP6011127B2 (ja) * | 2012-08-06 | 2016-10-19 | 富士ゼロックス株式会社 | 行為検出プログラム及び行為検出装置 |
JP5846385B2 (ja) * | 2012-11-07 | 2016-01-20 | 国立大学法人東京工業大学 | 内視鏡操作システム |
JP2014126997A (ja) | 2012-12-26 | 2014-07-07 | Denso Corp | 操作装置、及び操作検出方法 |
US20150185855A1 (en) * | 2013-02-24 | 2015-07-02 | Praveen Elak | Method and apparatus to continuously maintain users eyes focused on an electronic display when either one or both are moving |
US9483117B2 (en) * | 2013-04-08 | 2016-11-01 | Nokia Technologies Oy | Apparatus, method and computer program for controlling a near-eye display |
EP3144775B1 (en) * | 2014-05-09 | 2020-07-08 | Sony Corporation | Information processing system and information processing method |
WO2015188011A1 (en) * | 2014-06-04 | 2015-12-10 | Quantum Interface, Llc. | Dynamic environment for object and attribute display and interaction |
JP6477123B2 (ja) * | 2015-03-25 | 2019-03-06 | 株式会社デンソー | 操作システム |
US20170039750A1 (en) * | 2015-03-27 | 2017-02-09 | Intel Corporation | Avatar facial expression and/or speech driven animations |
-
2016
- 2016-07-07 EP EP16841280.7A patent/EP3346368B1/en active Active
- 2016-07-07 WO PCT/JP2016/070073 patent/WO2017038248A1/ja unknown
- 2016-07-07 JP JP2017537625A patent/JP6507252B2/ja active Active
-
2018
- 2018-02-16 US US15/898,368 patent/US10585476B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3346368A4 (en) | 2018-09-12 |
EP3346368B1 (en) | 2020-02-05 |
EP3346368A1 (en) | 2018-07-11 |
JPWO2017038248A1 (ja) | 2018-07-12 |
US20180173306A1 (en) | 2018-06-21 |
WO2017038248A1 (ja) | 2017-03-09 |
US10585476B2 (en) | 2020-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10506913B2 (en) | Apparatus operation device, apparatus operation method, and electronic apparatus system | |
JP6601417B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6904254B2 (ja) | 手術用制御装置、手術用制御方法、およびプログラム | |
JP6507252B2 (ja) | 機器操作装置、機器操作方法、及び電子機器システム | |
WO2017061293A1 (ja) | 手術システム、並びに、手術用制御装置および手術用制御方法 | |
JP2016115965A (ja) | 医療用眼鏡型表示装、情報処理装置及び情報処理方法 | |
JP4968922B2 (ja) | 機器制御装置及び制御方法 | |
JP6507827B2 (ja) | 表示システム | |
US10706965B2 (en) | Sensor information acquiring device, sensor information acquiring method, recording medium in which sensor information acquiring program is recorded, and medical instrument | |
CN108369451B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
JPWO2019021601A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10877269B2 (en) | Head-mounted display apparatus, inspection supporting display system, display method, and recording medium recording display program | |
CN111722401A (zh) | 显示装置、显示控制方法以及显示系统 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP6319220B2 (ja) | 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム | |
CN104679226A (zh) | 非接触式医疗控制系统、方法及医疗设备 | |
JP6996883B2 (ja) | 医療用観察装置 | |
CN114791673A (zh) | 显示方法、显示装置以及记录介质 | |
JP2021045272A (ja) | 鍼刺用エコーガイドシステム | |
CN114740966A (zh) | 多模态图像显示控制方法、系统及计算机设备 | |
JP2021140432A (ja) | 制御装置および医療用観察システム | |
JP2015126369A (ja) | 撮像装置 | |
JP6080991B1 (ja) | 光学機器 | |
TWI547909B (zh) | 眼球動態追蹤裝置 | |
KR101561768B1 (ko) | 영상 촬영 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6507252 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |