JP7476128B2 - 表示システムおよび表示装置 - Google Patents
表示システムおよび表示装置 Download PDFInfo
- Publication number
- JP7476128B2 JP7476128B2 JP2021039144A JP2021039144A JP7476128B2 JP 7476128 B2 JP7476128 B2 JP 7476128B2 JP 2021039144 A JP2021039144 A JP 2021039144A JP 2021039144 A JP2021039144 A JP 2021039144A JP 7476128 B2 JP7476128 B2 JP 7476128B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- area
- display mode
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 description 97
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 15
- 238000003860 storage Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2092—Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G3/2096—Details of the interface to the display terminal specific for a flat panel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0492—Change of orientation of the displayed image, e.g. upside-down, mirrored
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、このような背景を鑑みてなされたものであって、実空間で作業する作業者に適し、作業に係る情報を表示することを可能とする表示システムおよび表示装置を提供することを課題とする。
以下に本発明を実施するための形態(実施形態)における表示システムを説明する。表示システムは、スマートフォン、および透過型のHMD(ヘッドマウントディスプレイ)を含んで構成される。スマートフォンには、作業の手順書、および図面が記憶され、作業者が行っている作業ステップの手順書と図面とをそれぞれの所定の領域に含む画像(表示元画像とも記す)を生成して、HMDに送信する。
表示システムは、作業に応じて第1の表示モードと第2の表示モードとを切り替える。作業内容(手順書)に応じて予め適切に表示モードを設定しておくことで、作業者は表示モードを切り替える操作をすることなく作業を行うことができる。
図1は、第1の実施形態に係る表示システム10の構成を示す図である。表示システム10は、HMD100(表示装置)とスマートフォン200(携帯装置)とを含んで構成される。HMD100は、例えば、視界を覆うようにして頭部に装着するゴーグル型の表示装置である。HMD100とスマートフォン200とは、例えばUSB(Universal Serial Bus)ケーブルで接続されるが、他の規格のケーブルまたは無線で接続されてもよい。また、スマートフォン200にUSBを接続し、変換アダプタを介してHDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPortなどの画像出力コネクタに変換してHMD100に接続する形態でもよい。なお、HMD100には、メガネのようにかけて使用するスマートグラスも含めるものとする。同様に、スマートフォン200(携帯装置)には、タブレットやノートPCといった携帯可能な端末も含めるものとする。
図2は、第1の実施形態に係るHMD100の機能ブロック図である。HMD100は、制御部110、記憶部120、ディスプレイ160、センサ170、および通信部180を含んで構成される。通信部180は、USBやWi-Fi(登録商標)など1つ以上の通信インターフェースを備え、スマートフォン200との間でデータを送受信する。
センサ170は、例えばMEMS(Micro Electro Mechanical Systems)式のジャイロスコープを含むセンサであって、HMD100の角度または角速度を検出して制御部110に出力する。周囲の照度を測定する照度センサ、および周囲や作業者を撮影するカメラを含んでもよい。
視野画像表示部112は、表示モード126に応じて、表示元画像122(後記する図5に記載の表示元画像230参照)から画像を切り出してディスプレイ160に表示する。画像を切り出す際に視野画像表示部112は、手順書座標123、関連図面座標124、視野内手順書座標125、および表示モード126を参照する。
図3は、第1の実施形態に係るスマートフォン200の機能ブロック図である。スマートフォン200は、制御部210、記憶部220、タッチパネルディスプレイ260、マイク270、および通信部280を含んで構成される。通信部280はUSBやWi-Fiなど1つ以上の通信インターフェースを備え、HMD100との間でデータを送受信する。
プログラム229は、制御部210を構成するCPUが実行するプログラムであって、スマートフォン200を制御する。プログラム229は、表示元画像生成処理(後記する図10参照)他の処理手順の記述を含む。
表示モード224は、手順書や図面を含む視野画像の構成に係るモードであり、第1の実施形態では、第1~第3の3つの表示モードがある。表示モードの詳細についても図5~図8を参照しながら説明する。
図5は、第1の実施形態に係る表示元画像230の構成を示す図である。表示元画像230はディスプレイ160(図1および図2参照)に表示される画像の基となる画像であって、図2に記載の表示元画像122と同等である。手順書配置領域231は表示元画像230の部分領域であって、手順書の内容(図4のステップ番号241、作業対象部位242、作業内容243、関連図面244、完了フラグ245)が表示される領域である。図面配置領域232は表示元画像230の部分領域であって、手順書に関連する図面(図4の関連図面244で識別され、図面データベース250に記憶されている図面)が表示される領域である。
視野領域233は、HMD100の向きに応じて表示元画像230内を移動する。例えば、作業者が左を向くとともにセンサ170(図2参照)がHMD100の左回転を検知すると、ディスプレイ160には表示元画像230の左側にある視野領域233Aが表示される。
以下、図6~図8を参照しながら、第1~第3の表示モード(「の」を省いて第1~第3表示モードとも記す)における視野画像420,420A,420Bの構成を説明する。
第2表示モードでは、視野画像420A内における視野内手順書領域423が固定されず、手順書が固定表示されないため、実空間の視認性が向上する。このため、比較的細かい作業などを集中して実施する場合に向いており、作業効率が向上する。
図3に戻って、制御部210はCPUを含んで構成され、配置定義部211、表示元画像生成部212、および表示モード制御部213を備える。配置定義部211は、表示システム10の利用者である作業者の指示を受け付け、表示元画像230(図5参照)における手順書配置領域231や図面配置領域232の配置(配置座標)、および視野画像420(図6参照)における視野内手順書領域421の配置を定義(設定)する。配置定義部211は、定義された配置座標をHMD100に送信する。
表示元画像生成部212は、作業者が作業している作業ステップに係る手順書および関連図面を含んだ表示元画像230を生成して、HMD100に送信する。
表示モード制御部213は、表示モードを判定し、表示モード224に記憶する。
図9は、第1の実施形態に係る配置定義処理のシーケンス図である。図9を参照しながら、表示元画像230(図5参照)、および視野画像420(図6参照)に係る設定を行うスマートフォン200、およびHMD100の処理を説明する。
ステップS111においてスマートフォン200の配置定義部211は、表示システム10の利用者である作業者が指示した表示元画像230(図5参照)における手順書配置領域231の配置座標を取得して、手順書座標221(図3参照)に格納する。配置座標は、例えば領域の左上頂点および右下頂点の表示元画像230内での座標である。
ステップS113において配置定義部211は、作業者が指示した視野画像420(図6参照)における視野内手順書領域421の配置座標を取得して、視野内手順書座標223に格納する。
ステップS114において配置定義部211は、手順書座標221、関連図面座標222、および視野内手順書座標223をHMD100に送信する。
続いて、作業者が表示システム10を利用して作業するときの表示システム10の処理を説明する。
図10は、第1の実施形態における表示元画像生成処理のフローチャートである。図10を参照しながら、スマートフォン200が表示元画像230を生成して、HMD100に送信する処理を説明する。
ステップS133において表示元画像生成部212は、空白の画像を生成して、表示元画像230に格納する。
ステップS135において表示モード制御部213は、現在の作業ステップの表示モード247を取得して表示モード224に格納する。
ステップS137において表示元画像生成部212は、表示元画像230と表示モード224とをHMD100に送信して、ステップS131に戻る。なお、表示モード224については、表示モード制御部213がHMD100に送信してもよい。
図11は、第1の実施形態における視野画像表示処理のフローチャートである。図11を参照しながら、HMD100がスマートフォン200から受信した(図10のステップS137参照)表示元画像230と表示モード224とを基に視野画像をディスプレイ160に表示する処理を説明する。
ステップS152において視野画像表示部112は、表示モード126が第1表示モードなら(ステップS152→第1表示モード)ステップS153に進み、第2表示モードなら(ステップS152→第2表示モード)ステップS156に進み、第3表示モードなら(ステップS152→第3表示モード)ステップS159に進む。
ステップS154において視野画像表示部112は、センサ170で取得したHMD100の向き(角度)から視野領域233(図5参照)を算出する。
ステップS157において視野画像表示部112は、視野領域233と手順書配置領域231の重複領域を、ディスプレイ160の対応する領域に表示する。換言すれば視野画像表示部112は、HMD100の向きに応じて視野領域233のなかで手順書配置領域231と重複した領域を視野内手順書領域423と決定する。
ステップS158は、ステップS155と同様である。
ステップS159において視野画像表示部112は、表示元画像122をディスプレイ160に表示して、ステップS151に戻る。この時、表示元画像122がディスプレイ160で全画面表示されるように表示元画像122のサイズを変更してもよい。
HMD100のディスプレイ160には、作業者が作業している作業ステップの手順書と関連図面とが表示される。
第1の表示モードの場合、手順書はディスプレイ160の設定された位置(図6の視野内手順書領域421参照)に常時表示される。このため、作業者は手順書を常時参照しながら作業することができる。また、関連図面は、作業者の頭部(HMD100)の向きに応じて表示される。図面の位置が表示元画像230の右側に設定されたとする。すると、作業者が正面を向いているときには図面は表示されず、作業者は図面に邪魔されることなく作業できる。作業者は、右を向くことで図面を参照することができる。結果として作業者は、手でスマートフォン200やHMD100を操作することなく両手で作業しながら、手順書や図面を参照することができるようになる。
第3の表示モードの場合、1つのディスプレイで手順書と図面が確認できるため、作業実施前に内容を確認する際などに便利である。また、片眼タイプのHMDを使用する場合は、ディスプレイに常に手順書と図面が表示されていても、実空間に対する視認性が確報されるため、常に第3の表示モードとしてもよい。
なお、第1の実施形態の表示システム10は、作業書データベース240に設定された表示モード247に応じて第1~第3の表示モードを変更しているが、その他の方法でもよい。例えば、表示モード制御部213が表示するコンテンツの種類を認識し、設定画面(図9参照)であれば第3の表示モード、作業画面であれば第1の表示モードとしてもよい。また、表示モード制御部213がHMDのタイプ(片眼/両眼)をHMD100から取得し、片眼タイプの場合は第3の表示モード、両眼タイプであれば第1の表示モードとしてもよい。また、表示モード制御部213はマイク270(図3参照)で取得した作業者の音声コマンドに応じて表示モードを切り替えてもよい。
第1の実施形態ではHMD100は、スマートフォン200が送信した表示モード126に従って、表示モードを切り替えている。作業者がHMD100を操作することで表示モードが切り替わるようにしてもよい。
図12は、第2の実施形態に係るHMD100Aの機能ブロック図である。第1の実施形態に係るHMD100(図2参照)と比較して、HMD100Aには操作部175が備わり、制御部110には表示モード制御部113が備わり、センサ170Aにはマイクが備わる。
図13は、第3の実施形態に係るスマートフォン200Bの機能ブロック図である。第3の実施形態では、手順書の差異を強調する手順書強調部214が追加される。手順書強調部214は、作業書データベース240にある作業内容243(作業手順)において、前の作業手順との差分を強調表示するものである。これにより、作業手順の読み間違いなどを防止できる。
ステップS311~S313は、図10記載のステップS131~S133とそれぞれ同様である。
ステップS314において手順書強調部214は、現作業ステップの手順書と1つ前の作業ステップの手順書との差分を計算する。差分の計算には、例えばレーベンシュタイン距離を用いる。
ステップS316において手順書強調部214は、現手順書と1つ前の手順書と異なる文字を特定する。
ステップS318~S321は、図10記載のステップS134~S137とそれぞれ同様である。
第3の実施形態では、前後する作業ステップの手順書(作業内容)が類似している場合に、その違いが分かるように手順書を表示する。これにより、作業者の思い込みや読み間違いを防ぐことができ、より確実な作業を行うことができるようになる。
なお、第3の実施形態では前後する作業ステップの手順書を比較している。現作業ステップが複数の作業手順を含む場合には、この複数の作業手順間の違いを強調するようにしてもよい。
上記した実施形態において視野領域233(図5参照)は、センサ170が検出したHMD100の向きに基づいて算出される(図11記載のステップS154参照)。これに対して他の情報に基づいて視野領域233が決定されてもよい。
第1の例としてセンサ170が、HMD100を装着している作業者の視線を検出する視線センサを備え、視野画像表示部112は視線に応じて視野領域233の移動方向を決めてもよい。例えば、上・右上・左などの視線の向きに応じて、表示元画像230における視野領域233が視線と同じ方向に現在の位置から移動するようにしてもよい。
第3の例としてHMD100が備えるマイクが検出した音の向きに応じて、視野画像表示部112は視野領域233の移動方向を決めてもよい。この音とは作業対象(予め設定された音源)の音であり、例えばエンジン音やモータ音である。例えば、作業対象物の音の向きを検出して、視野領域233が音と同じ方向に移動するようにしてもよい。
なお、視野を確保するために、ディスプレイ160の中央より上・右上・左などの領域で、ディスプレイ160の端(周)に接するように図面配置領域232を表示するのが望ましい。
本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。例えば、スマートフォン200の機能部やデータがHMD100に取り込まれてもよい。このような場合には、表示システム10は、HMD100と見なすことができる。
これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,100A HMD(表示装置)
111 データ受信部
112 視野画像表示部
113 表示モード制御部
122 表示元画像
126 表示モード
160 ディスプレイ(表示器)
170 センサ(検出器)
170A センサ(検出器、マイク)
175 操作部
200,200B スマートフォン(携帯装置、外部装置)
211 配置定義部
212 表示元画像生成部
213 表示モード制御部
214 手順書強調部(表示元画像生成部)
224 表示モード
230 表示元画像
231 手順書配置領域(第1画像の領域)
232 図面配置領域(第2画像の領域)
233,233A 視野領域
240 作業書データベース
250 図面データベース
420,420A,420B 視野画像
421 視野内手順書領域(第1表示領域、固定領域)
422 視野内図面領域(第2表示領域)
423 視野内手順書領域(第1表示領域)
Claims (7)
- 表示器と、前記表示器の向きを検出する検出器とを含んで構成される表示システムであって、
第1画像と、当該第1画像に関連する第2画像とを、それぞれ一部の領域の画像として含む表示元画像を生成する表示元画像生成部と、
前記第1画像を前記表示器の第1表示領域に表示し、前記第2画像を前記表示器の第2表示領域に表示する視野画像表示部とを備え、
前記視野画像表示部は、
前記第1画像に関連付けられた表示モードが第1表示モードであれば、前記表示器の所定の固定領域を前記第1表示領域とし、
前記表示モードが第2表示モードであれば、前記表示器の向きに応じて前記第1表示領域の表示位置および表示サイズを決定し、
前記第1画像は、テキストの画像であり、
前記表示元画像生成部は、
複数の前記表示元画像を生成し、
前回生成した表示元画像に含まれる第1画像のテキストと、今回生成する表示元画像に含まれる第1画像のテキストとの差分を求め、当該差分が所定の条件を満たす場合には、当該差分を強調して前記表示元画像を生成する
ことを特徴とする表示システム。 - 表示器と、前記表示器の向きを検出する検出器とを含んで構成される表示システムであって、
第1画像と、当該第1画像に関連する第2画像とを、それぞれ一部の領域の画像として含む表示元画像を生成する表示元画像生成部と、
前記第1画像を前記表示器の第1表示領域に表示し、前記第2画像を前記表示器の第2表示領域に表示する視野画像表示部とを備え、
前記視野画像表示部は、
前記第1画像に関連付けられた表示モードが第1表示モードであれば、前記表示器の所定の固定領域を前記第1表示領域とし、
前記表示モードが第2表示モードであれば、前記表示器の向きに応じて前記第1表示領域の表示位置および表示サイズを決定し、
前記第1画像は、テキストの画像であり、
前記テキストは、複数の部分テキストを含み、
前記表示元画像生成部は、
前記複数の部分テキスト間の差分を求め、当該差分が所定の条件を満たす場合には、当該差分を強調して前記表示元画像を生成する
ことを特徴とする表示システム。 - 前記視野画像表示部は、
前記表示モードが第3表示モードであれば、前記表示元画像全体を前記表示器に表示する
ことを特徴とする請求項1または2に記載の表示システム。 - 前記視野画像表示部は、
前記表示器が片眼用の表示器である場合には、前記表示モードが前記第3表示モードであるとして前記表示元画像を前記表示器に表示し、
前記表示器が片眼用の表示器でない場合には、前記表示モードは前記第1表示モード、前記第2表示モードおよび前記第3表示モードの何れかである
ことを特徴とする請求項3に記載の表示システム。 - 前記表示元画像生成部は、レーベンシュタイン距離を用いて前記差分を求める
ことを特徴とする請求項1または2に記載の表示システム。 - 表示装置と携帯装置とを含んで構成される構成される表示システムの表示装置であって、
前記携帯装置は、
第1画像と、当該第1画像に関連する第2画像とを、それぞれ一部の領域の画像として含む表示元画像を生成して前記表示装置に送信する表示元画像生成部と、
前記第1画像に関連付けられた表示モードを前記表示装置に送信する表示モード制御部とを備え、
前記第1画像は、テキストの画像であり、
前記表示元画像生成部は、
複数の前記表示元画像を生成し、
前回生成した表示元画像に含まれる第1画像のテキストと、今回生成する表示元画像に含まれる第1画像のテキストとの差分を求め、当該差分が所定の条件を満たす場合には、当該差分を強調して前記表示元画像を生成し、
前記表示装置は、
表示器と、
前記表示器の向きを検出する検出器と、
前記第1画像を前記表示器の第1表示領域に表示し、前記第2画像を前記表示器の第2表示領域に表示する視野画像表示部とを備え、
前記視野画像表示部は、
前記表示モードが第1表示モードであれば、前記表示器の所定の固定領域を前記第1表示領域とし、
前記表示モードが第2表示モードであれば、前記表示器の向きに応じて前記第1表示領域の表示位置および表示サイズを決定する
ことを特徴とする表示装置。 - 表示装置と携帯装置とを含んで構成される構成される表示システムの表示装置であって、
前記携帯装置は、
第1画像と、当該第1画像に関連する第2画像とを、それぞれ一部の領域の画像として含む表示元画像を生成して前記表示装置に送信する表示元画像生成部と、
前記第1画像に関連付けられた表示モードを前記表示装置に送信する表示モード制御部とを備え、
前記第1画像は、テキストの画像であり、
前記テキストは、複数の部分テキストを含み、
前記表示元画像生成部は、
前記複数の部分テキスト間の差分を求め、当該差分が所定の条件を満たす場合には、当該差分を強調して前記表示元画像を生成し、
前記表示装置は、
表示器と、
前記表示器の向きを検出する検出器と、
前記第1画像を前記表示器の第1表示領域に表示し、前記第2画像を前記表示器の第2表示領域に表示する視野画像表示部とを備え、
前記視野画像表示部は、
前記表示モードが第1表示モードであれば、前記表示器の所定の固定領域を前記第1表示領域とし、
前記表示モードが第2表示モードであれば、前記表示器の向きに応じて前記第1表示領域の表示位置および表示サイズを決定する
ことを特徴とする表示装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021039144A JP7476128B2 (ja) | 2021-03-11 | 2021-03-11 | 表示システムおよび表示装置 |
US17/536,148 US11574582B2 (en) | 2021-03-11 | 2021-11-29 | Display system and display device |
CN202210199474.8A CN115079973A (zh) | 2021-03-11 | 2022-03-02 | 显示系统和显示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021039144A JP7476128B2 (ja) | 2021-03-11 | 2021-03-11 | 表示システムおよび表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022138964A JP2022138964A (ja) | 2022-09-26 |
JP7476128B2 true JP7476128B2 (ja) | 2024-04-30 |
Family
ID=83194354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021039144A Active JP7476128B2 (ja) | 2021-03-11 | 2021-03-11 | 表示システムおよび表示装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11574582B2 (ja) |
JP (1) | JP7476128B2 (ja) |
CN (1) | CN115079973A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11748965B2 (en) * | 2021-09-28 | 2023-09-05 | Htc Corporation | Virtual image display system and virtual image display method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005158084A (ja) | 2005-02-10 | 2005-06-16 | Mitsubishi Electric Corp | 図面の編集表示装置、その動作方法およびその方法をコンピュータに実行させるプログラム |
JP2006201907A (ja) | 2005-01-19 | 2006-08-03 | Konica Minolta Holdings Inc | 更新検出装置 |
JP2007265068A (ja) | 2006-03-29 | 2007-10-11 | National Institute Of Information & Communication Technology | 文書差分検出装置及びプログラム |
JP2016024528A (ja) | 2014-07-17 | 2016-02-08 | 富士フイルム株式会社 | 情報処理装置、プログラム、及びデジタル検版方法 |
JP2016081339A (ja) | 2014-10-17 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016110319A (ja) | 2014-12-04 | 2016-06-20 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2016126188A (ja) | 2015-01-05 | 2016-07-11 | コニカミノルタ株式会社 | 音声情報表示装置 |
US20160232879A1 (en) | 2015-02-05 | 2016-08-11 | Samsung Electronics Co., Ltd. | Method and electronic device for displaying screen |
JP2019109850A (ja) | 2017-12-20 | 2019-07-04 | セイコーエプソン株式会社 | 透過型表示装置、表示制御方法、およびコンピュータープログラム |
US20200258481A1 (en) | 2019-02-11 | 2020-08-13 | Samsung Electronics Co., Ltd. | Electronic device for providing augmented reality user interface and operating method thereof |
JP2021026125A (ja) | 2019-08-06 | 2021-02-22 | 株式会社日立製作所 | 表示制御装置、透過型表示装置 |
WO2021187771A1 (ko) | 2020-03-20 | 2021-09-23 | 주식회사 코클리어닷에이아이 | 오디오 인식을 수행하는 증강현실 디바이스 및 그의 제어방법 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9740935B2 (en) * | 2013-11-26 | 2017-08-22 | Honeywell International Inc. | Maintenance assistant system |
KR102212030B1 (ko) * | 2014-05-26 | 2021-02-04 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
US10645374B2 (en) * | 2016-03-04 | 2020-05-05 | Seiko Epson Corporation | Head-mounted display device and display control method for head-mounted display device |
US10503391B2 (en) * | 2017-11-17 | 2019-12-10 | Motorola Solutions, Inc. | Device, system and method for correcting operational device errors |
JP6522092B1 (ja) | 2017-12-06 | 2019-05-29 | 株式会社スクウェア・エニックス | 表示システム及び表示方法 |
JP6585218B1 (ja) * | 2018-03-28 | 2019-10-02 | Eizo株式会社 | 表示システム及びプログラム |
US10872460B1 (en) * | 2018-09-21 | 2020-12-22 | Immersivetouch, Inc. | Device and system for volume visualization and interaction in a virtual reality or augmented reality environment |
US11333892B2 (en) * | 2020-04-24 | 2022-05-17 | Hitachi, Ltd. | Display apparatus, display system, and display method |
-
2021
- 2021-03-11 JP JP2021039144A patent/JP7476128B2/ja active Active
- 2021-11-29 US US17/536,148 patent/US11574582B2/en active Active
-
2022
- 2022-03-02 CN CN202210199474.8A patent/CN115079973A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201907A (ja) | 2005-01-19 | 2006-08-03 | Konica Minolta Holdings Inc | 更新検出装置 |
JP2005158084A (ja) | 2005-02-10 | 2005-06-16 | Mitsubishi Electric Corp | 図面の編集表示装置、その動作方法およびその方法をコンピュータに実行させるプログラム |
JP2007265068A (ja) | 2006-03-29 | 2007-10-11 | National Institute Of Information & Communication Technology | 文書差分検出装置及びプログラム |
JP2016024528A (ja) | 2014-07-17 | 2016-02-08 | 富士フイルム株式会社 | 情報処理装置、プログラム、及びデジタル検版方法 |
JP2016081339A (ja) | 2014-10-17 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016110319A (ja) | 2014-12-04 | 2016-06-20 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2016126188A (ja) | 2015-01-05 | 2016-07-11 | コニカミノルタ株式会社 | 音声情報表示装置 |
US20160232879A1 (en) | 2015-02-05 | 2016-08-11 | Samsung Electronics Co., Ltd. | Method and electronic device for displaying screen |
JP2019109850A (ja) | 2017-12-20 | 2019-07-04 | セイコーエプソン株式会社 | 透過型表示装置、表示制御方法、およびコンピュータープログラム |
US20200258481A1 (en) | 2019-02-11 | 2020-08-13 | Samsung Electronics Co., Ltd. | Electronic device for providing augmented reality user interface and operating method thereof |
JP2021026125A (ja) | 2019-08-06 | 2021-02-22 | 株式会社日立製作所 | 表示制御装置、透過型表示装置 |
WO2021187771A1 (ko) | 2020-03-20 | 2021-09-23 | 주식회사 코클리어닷에이아이 | 오디오 인식을 수행하는 증강현실 디바이스 및 그의 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
CN115079973A (zh) | 2022-09-20 |
JP2022138964A (ja) | 2022-09-26 |
US11574582B2 (en) | 2023-02-07 |
US20220293036A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11160688B2 (en) | Visual aid display device and method of operating the same | |
US10698535B2 (en) | Interface control system, interface control apparatus, interface control method, and program | |
US20150370321A1 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
KR101977332B1 (ko) | 증강현실 원격화상통신환경에서 직관적인 가이드를 위한 테이블탑 시스템 | |
US9500867B2 (en) | Head-tracking based selection technique for head mounted displays (HMD) | |
KR20230106727A (ko) | 시선-기반 사용자 상호작용 | |
KR101812227B1 (ko) | 동작 인식 기반의 스마트 글래스 장치 | |
US9979946B2 (en) | I/O device, I/O program, and I/O method | |
US10438411B2 (en) | Display control method for displaying a virtual reality menu and system for executing the display control method | |
US9906778B2 (en) | Calibration device, calibration program, and calibration method | |
JPWO2017057107A1 (ja) | 入力装置、入力方法、及びプログラム | |
JP2016082411A (ja) | ヘッドマウントディスプレイ、画像表示方法及びプログラム | |
EP3029547A1 (en) | Three-dimensional input device and input system | |
US20220005441A1 (en) | Method and system for spawning attention pointers (apt) for drawing attention of an user in a virtual screen display with augmented and virtual reality | |
US10171800B2 (en) | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance | |
JP7476128B2 (ja) | 表示システムおよび表示装置 | |
US11333892B2 (en) | Display apparatus, display system, and display method | |
CN103713387A (zh) | 电子设备和采集方法 | |
JP7492904B2 (ja) | 表示装置、表示システムおよび表示方法 | |
US20240177436A1 (en) | Wearable terminal device, program, and notification method | |
JP6275809B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP2018106723A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |