JP2019032593A - 撮影システム、撮影装置、および撮影方法 - Google Patents
撮影システム、撮影装置、および撮影方法 Download PDFInfo
- Publication number
- JP2019032593A JP2019032593A JP2017151775A JP2017151775A JP2019032593A JP 2019032593 A JP2019032593 A JP 2019032593A JP 2017151775 A JP2017151775 A JP 2017151775A JP 2017151775 A JP2017151775 A JP 2017151775A JP 2019032593 A JP2019032593 A JP 2019032593A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- unit
- crown
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 180
- 230000008569 process Effects 0.000 claims abstract description 147
- 238000004519 manufacturing process Methods 0.000 claims abstract description 46
- 238000004891 communication Methods 0.000 claims description 26
- 239000000463 material Substances 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 description 41
- 239000003973 paint Substances 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 15
- 239000000919 ceramic Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000002156 mixing Methods 0.000 description 11
- 239000011521 glass Substances 0.000 description 10
- 238000010304 firing Methods 0.000 description 9
- 239000000049 pigment Substances 0.000 description 9
- 238000011282 treatment Methods 0.000 description 9
- 230000001276 controlling effect Effects 0.000 description 8
- 238000003754 machining Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 229910010293 ceramic material Inorganic materials 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004737 colorimetric analysis Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000002904 solvent Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00204—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
- H04N1/00209—Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/21—Intermediate information storage
- H04N1/2104—Intermediate information storage for one or a few pictures
- H04N1/2112—Intermediate information storage for one or a few pictures using still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/0077—Types of the still picture apparatus
- H04N2201/0084—Digital still camera
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Social Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Entrepreneurship & Innovation (AREA)
- Primary Health Care (AREA)
- Manufacturing & Machinery (AREA)
- Psychiatry (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- General Factory Administration (AREA)
Abstract
【課題】作業箇所・進捗状況等に応じて、適切な記録、観察を行うに適した撮影システム、撮影装置、および撮影方法を提供する。【解決手段】製作物を製作するための複数の工程を撮影し(S135)、撮影画像に基づいて製作物の部位に応じた部位別工程を検出し、撮影画像と部位別工程を関連付け、関連付けがなされた撮影画像を外部装置に送信し(S127)、外部装置で検索された撮影画像を受信し(S121)、この受信した撮影画像に基づいてガイド表示を行う(S141)。【選択図】 図13
Description
本発明は、特定の専用道具を使い作業を行う技能士、技工士等による作業過程を撮影し記録するに適した撮影システム、撮影装置、および撮影方法に関する。
近年、情報化技術の発展により、大量の情報を容易に得ることが可能になってきた。その一方で、大量の情報の中から有用な情報を得ることは容易ではなくってきている。そこで、複数の事業者間で種々の情報を提供するシステムが提案されている(例えば、特許文献1参照)。
特定の専用道具を使いこなして作業を行う作業過程は、極めて属人性の高い業務なので、作業過程の適切な記録、観察によって技術伝承やエビデンス化が可能となる。
本発明は、このような事情を鑑みてなされたものであり、作業箇所・進捗状況等に応じて、適切な記録、観察を行うに適した撮影システム、撮影装置、および撮影方法を提供することを目的とする。
上記目的を達成するため第1の発明に係る撮影システムは、複数の工程を撮影して記録する撮影システムにおいて、撮影画像に基づいて工程を検出する工程検出部と、上記撮影画像と上記工程を関連付けて撮影画像を記録する記録部と、を有する。
第2の発明に係る撮影システムは、上記第1の発明において、上記工程で使用する第1の使用器具または材料に基づいて、作業起点に対応する上記撮影画像のコマを類推する起点画像類推部を有する。
第3の発明に係る撮影システムは、上記第2の発明において、上記撮影画像を表示する表示部を有し、上記表示部は、上記撮影画像のから作業起点コマを類推して表示を開始する。
第3の発明に係る撮影システムは、上記第2の発明において、上記撮影画像を表示する表示部を有し、上記表示部は、上記撮影画像のから作業起点コマを類推して表示を開始する。
第4の発明に係る撮影システムは、上記第1の発明において、上記工程検出部は、製作物の製作時において、上記撮影画像中の第2の使用器具を画像判定することにより、上記製作物の部位を判定する。
第5の発明に係る撮影装置は、製作物を製作するための複数の工程を撮影する撮影部と、撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出する部位別工程検出部と、上記撮影画像と上記部位別工程を関連付ける関連付け部と、上記関連付け部によって関連付けがなされた上記撮影画像を外部装置に送信し、上記外部装置で検索された撮影画像を受信するための通信部と、を有する。
第6の発明に係る撮影装置は、上記第5の発明において、上記通信部は、上記外部装置に対して、上記部位別工程検出部によって検出した部位に関する情報を送信し、上記外部装置によって検索された上記部位に関連する撮影画像を受信する。
第7の発明に係る撮影装置は、上記第5の発明において、特定の部位についての撮影画像の検索を上記外部装置に要求した際に、上記外部装置によって上記検索された撮影画像を表示するための表示部を有する。
第7の発明に係る撮影装置は、上記第5の発明において、特定の部位についての撮影画像の検索を上記外部装置に要求した際に、上記外部装置によって上記検索された撮影画像を表示するための表示部を有する。
第8の発明に係る撮影方法は、製作物を製作するための複数の工程を撮影して記録する撮影方法において、撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出し、上記撮影画像と上記部位別工程を関連付けて撮影画像を記録する。
第9の発明に係る撮影方法は、製作物を製作するための複数の工程を撮影し、撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出し、上記撮影画像と上記部位別工程を関連付け、関連付けがなされた上記撮影画像を外部装置に送信し、上記外部装置で検索された撮影画像を受信する。
第9の発明に係る撮影方法は、製作物を製作するための複数の工程を撮影し、撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出し、上記撮影画像と上記部位別工程を関連付け、関連付けがなされた上記撮影画像を外部装置に送信し、上記外部装置で検索された撮影画像を受信する。
本発明によれば、作業箇所・進捗状況等に応じて、適切な記録、観察を行うに適した撮影システム、撮影装置、および撮影方法を提供することができる。
本発明は、特定の専用道具を使いこなして作業を行う技能士、技工士などによる作業過程を観察、記録するための機器、装置、方法に関する。こうした専門性の高い作業を経て得られる成果物は、カスタマイズに対応した一品生産である事も多く、審美的な面までをカバーした高度な技能が要求される。そのため、加工箇所、加工の進捗等に応じて、適切な作業、テクニックが必要で、その極めて高い属人性の業務であるがゆえに、技能伝承という意味でも、作業品質の確認用としても、作業の過程が把握可能な適切な観察、記録の技術が求められていた。技能士、技工士など高度な専門職、職人技による作業などは、こうした記録が重要となる。特に、ここで特記した筆などの道具を使う時の人の動きなどは、アナログ的な動きで、文字や音声、静止画などで表現するよりも、動画で再現すれば百聞は一見にしかずで、すぐに理解が可能なので、以下に説明するように、その肝心な部分のみを動画で切り分けて再現できるような工夫が望まれている。また、素早い動きなどはスローモーションで見たくもなるが、これも動画ならではのメリットである。動画を探しやすくするには、工程を細分化すること望ましい。このように、作業を明確に可視化し、検索しやすくする技術が求められており、以下、本発明の特徴について各実施形態を例として挙げて説明する。
このように、一連の作業を時間的に分割して複数の工程として撮影して記録する撮影システムが望まれている。この撮影システムが、撮影画像に基づいて工程を検出する工程検出部を有していれば、撮影と同時に工程検出結果に基づいて、上記分割が可能となり、上記撮影画像と上記工程を関連付けて動画撮影画像を記録することができる。このため、この撮影システムでは、後に見たい部分の動画だけを検索したり再確認したりが簡単に可能となり、技能伝承に役立つ。もちろん、撮影システム中の記録制御部が、連続して撮影した動画の一部を作業ごとに検索しやすいように各動画に作業別のタイトルを付けたり、作業別のメタデータを付けたファイル形式で記録できるようにしてもよい。
以下、本発明の実施形態として、歯冠補綴物であるセラミック製のクラウンの製作を依頼する歯科医が使用する情報端末、製作する歯科技工士が使用する端末、及びこれらの端末に接続されたサーバからなる記録システムについて説明する。
また、本実施形態に係る撮影システムは、歯科技工士がクラウンを製作する際に、クラウンの部位別の工程を検出すると共にクラウンの撮影画像を取得し、部位別の工程に関連付けて撮影画像を記録部に記録する。この記録された撮影画像は、別の歯科技工士がクラウンを製作する際に、作業中の部位(工程)に応じて、ガイド用に撮影画像を表示する表示システムとしても利用することもできる。また、本実施形態に係る撮影システムは、作業中以外にも、完成したクラウンの撮影画像も記録することができる。
また、本実施形態に係る撮影システムは、歯科医が患者の治療用にクラウンを歯科技工士に製作を依頼する際に、最適なクラウンを製作可能な歯科技工士を検索する際にも利用することができる。前述したように、クラウンの製作には豊富な経験と高度の技能を必要とする。本実施形態においては、完成したクラウンを表示可能であるため、歯科医は所望するクラウンに最も近いものを製作可能な歯科技工士を検索することができ、またその歯科技工士に製作を依頼することも可能である。
図1は、第1実施形態に係るシステムの全体構成の概略を示すブロック図である。この第1実施形態は、遠く離された場所までビジネスベースで展開する際に実現し易くしたシステムの例である。もちろん、要求、展開される規模によっては、この一部の構成だけに機能を集約して実施することも可能である。図1において、技工所情報端末11、13は、歯科技工士が所属する技工所が所有する情報端末であり、例えば、ネットワーク17に接続可能なPC(パーソナルコンピュータ)である。なお、図1には、技工所情報端末として、2か所が示されているに過ぎないが、これは例示であり、1か所でもよく、また3か所以上でも構わない。
ウエラブル端末10a、10bは、技工所情報端末11の技工所に所属する個々の歯科技工士が身に着けている端末である。同様に、ウエラブル端末12a、12bは、技工所情報端末13の技工所に所属する個々の歯科技工士が身に着けている端末である。ウエアラブル端末10a、10b、12a、12bには、例えば、技工士の目線の方向の画像を入力するための画像入力部、及び/または音声を入力するための音声入力部等が設けられ、またウエアラブル端末内の制御を行うための制御部等も有している。なお、図1には、ウエラブル端末として、2つの端末が示されているに過ぎないが、これは例示であり、1つの端末でもよく、また3つ以上の端末でも構わない。また、ウエラブル端末は技工所情報端末を介してネットワークに接続しているが、技工所情報端末を介さず、直接、ネットワークに接続するようにしても構わない。
歯科医情報端末15、16は、歯科医が使用する情報端末であり、例えば、ネットワーク17に接続可能なPC(パーソナルコンピュータ)である。歯科医は、歯科医情報端末を用いて、所望するクラウンの例に近い、技工士が製作したクラウンの例を検索することができ、また歯科医情報端末15、16を介して、発注することもできる。なお、図1には、歯科医情報端末として、2か所が示されているに過ぎないが、これは例示であり、1か所でもよく、また3か所以上でも構わない。
サーバ14は、ネットワーク17を介して、各装置と通信可能に構成されている。サーバ14は、ネットワーク17を介してウエラブル端末10a、10b、12a、12bから受信したクラウンの撮影画像およびこれに関連する情報をデータベース14aに記録する。また、歯科医情報端末15、16から、クラウンに関する検索依頼を受信すると、データベース14aを検索し、検索結果を歯科医情報端末15、16に送信する。データベース14aに記録する情報については、図4を用いて後述する。
ネットワーク17は、インターネット、イントラネット、電話回線等の通信網であり、技工所情報端末11、13、歯科医情報端末15、16、サーバ14等を通信可能に接続する。ネットワーク17は、無線通信でもよく、また有線通信でもよい。
次に、図2に示すフローチャートを用いて、歯科医側の動作について説明する。このフローの一部は、歯科医情報端末15、16内のCPU(Central Processing Unit)がメモリに記憶されたプログラムに従って実行することにより実現し、他の一部は歯科医が直接実行する。また、将来、歯科医の作業がロボット化される場合は、このようなステップからなるプログラムで実行される。しかし、ここでは、一般的な工程を分かりやすく説明するための図面として提示している。
歯科医のフローに入ると、まず、クラウンか否かについて判定する(S1)。歯科医情報端末15、16は、前述のクラウンの検索・発注以外にも種々の処理を行うことができる。このステップでは、クラウンに関する事項について、キーボード等による入力情報に基づいて判定する。この判定の結果、クラウンに関する事項でない場合には、その他の診察、治療等に処理に進む。
一方、ステップS1における判定の結果、クラウンに関する事項であった場合には、次に、審美性確保を目的とするものか否かを判定する(S3)。クラウンは、金属製や樹脂製等があるが、本実施形態において対象にするクラウンはセラミック製等の審美性の高い商品である。このステップでは、審美性が要求されるか否かを判定する。具体的には、歯科医の入力情報に基づいて判定する。この判定の結果、審美性の確保に関する事項でない場合には、その他の診察、治療等に処理に進む。
ステップS3における判定の結果、審美性の確保を目的する場合には、次に、形状、質感、色情報等から出来映え予想の確認を行う(S5)。歯科医は、患者の治療用にクラウンを発注する場合に、クラウンの形状の他、クラウンの土台と土台色、患者の歯の色、クラウンに隣接する歯の形状、クラウンの質感に関する情報を入力する。入力にあたっては、患者の歯の色やクラウンの形状を示す撮影画像、色見本や材質をデータ等、種々の方法を用いてもよい。
ステップS5において、クラウンの大きさ、形状、色分布などを決める際に、その出来映え予想をシミュレーションして可視化して、医師や患者本人がそれで良いかを目視で確認する。特に、色については、照明光の影響や、様々な色成分があり、さらに分布も目視が困難なので、専用の装置を使って数値化したもので判定し、この結果をもとに材料、工法などを決定して出来映えをシミュレーションして可視化してもよい。また、隣接する歯、あるいは上下で対応する歯、または、治療、処置がされる前の歯との形状、大きさ、質感、色比較などによって、総合的な目視判断も可能である。単純化すれば、特定の撮影方法で撮影された画像に合成された出来映えのシミュレーション結果の画像などが有効な情報となる。そこで確認して、歯の並びの中で不自然さがなければよい。こうした判断方法、判定方法そのものも工程であり、本願による発明でカバーされる対象となる。
次に、情報をサーバまたは技工士に送信する(S7)。ここでは、ステップS5において確認した形状、質感、色情報などによってデータ化された出来映え予想結果を、サーバまたは歯科技工士に送信する(図3のS21参照)。これは、先に記した合成画像なども良い。この出来映え予想画像は歯科医師のパソコンなどの端末で特定のプログラムを利用して作成してもよいが、サーバ14に依頼して、そこから送信されてきた完成クラウンの出来映えシミュレーション結果の中から歯科医が所望とするクラウンを探しだし、このクラウンを製作可能な歯科技工士にクラウンの製作を依頼するようにしてもよい。なお、サーバ14を介さず、直接、技工士に送信するようにしてもよい。
情報を技工士等に送信すると、次に、歯科医師としてはクラウンの到着を待つ(S9)。歯科技工士は、クラウンの発注を受けると、クラウンの製作にとりかかり、クラウンが完成すると依頼元の歯科医に送付する(図3のS45参照)。歯科医が完成クラウンを受け取ると、その旨が歯科医情報端末15、16に入力されるので、この入力情報に基づいて判定する。
クラウンが到着すると、次に、OKか否かを判定する(S11)。歯科医はクラウンが到着すると、そのクラウンを検査し、問題がなければOKと判断する。不具合がある場合には、技工士に返送し、修正してもらう。
ステップS11における判定の結果、OKの場合には、装着、加工等を行う(S13)。ここでは、歯科医が患者にクラウンを装着する。装着の結果、追加加工を行う場合もあるが、作り直すほどの問題がなければ、歯科医側での処理は終了する。
次に、図3に示すフローチャートを用いて、歯科技工士側の動作について説明する。このフローの一部は、技工所情報端末11、13、ウエラブル端末10a、10b、12a、12bが協働し、これらの内部に設けられたCPU(Central Processing Unit)がメモリに記憶されたプログラムに従って実行することにより実現し、他の一部は歯科技工士が直接実行する。
また、作業場内に配置された監視カメラのようなものと連携し、作業の机などの場所や、その作業特有の姿勢(作業時の顔と指先の位置など)を判定して、各ステップを判定し、その作業の一部、または全部を実行してもよい。将来、技工士の作業がロボット化される場合は、内蔵のセンサと外部のセンサが連携して、このようなステップからなるプログラムで作業の一部、または全部が実行されてもよい。こうした連携での判定は、機器単独よりもサーバ連携での制御の方が好ましい。これら一連の作業は、何時間もかかるので、この作業の全体を通してエビデンス用の画像記録などを行うと、後で見直したり参考にしたりする時に、膨大な検索時間を要するので、それぞれのステップを出来るだけ細かい単位に分解しておくことが必要である。そこで、ここでは、各ステップを、後で他の人が参照、あるいは本人が再確認しやすくなるように、時間的な流れを分析しやすいように分けて表記した。このように、検索しやすく、確認もしやすい形式(例えば、メタデータ付きの画像ファイルなど)にしておけば、様々な状況で、その肝心の部分だけを検索したり、確認したりすることが出来る。
歯科技工士のフローに入ると、まず、情報を取得したか否かを判定する(S21)。歯科医側からクラウンの製作の依頼を受けると(図2のS7)、その際にクラウンの形状、質感、色情報等も併せて取得する。このステップでは、これらの情報を取得したか否かについて判定する(S21)。
ステップS21における判定の結果、情報を取得した場合には、次に、材料、塗料等を確保する(S23)。ここでは、ステップS21において取得したクラウンの形状、質感、色情報に基づいて、歯科技工士は、依頼を受けたクラウンを製作するに使用するセラミック等の材料を確保する。また、歯科医からクラウン製作の際に使用する型も入手する。これは、クラウン装着部の設計、加工や、かみ合わせ部の設計、加工上、必要に応じて発生する工程となる。
続いて、形状、質感、色情報に従い作業を開始する(S25)。歯科技工士は、材料等を確保すると、この材料等を用い、指定された形状、質感、色となるクラウンの製作を開始する。
次に、色合わせ工程か否かを判定する(S27)。ここでは、技工士が行っている工程について判定する。この判定にあたっては、歯科技工士がウエラブル端末または技工所情報端末に手動入力してもよいが、ウエラブル端末に設けられた画像入力部によって取得された画像に基づいて判定してもよく、技工所に設置され、技工士の作業を撮影画像で検出しうる据え置きカメラで得た画像でもよく、また音声判定で、声に指示しても良いようにする。後述するように、各工程で使用する材料、道具などが用意されていることを、画像データ等に基づいて検出してもよい。色合わせ工程は、ステインと呼ばれる顔料を含んだ粘着性の溶剤(後で焼き固める)を塗り重ねて、セラミックのクラウンを造形していく工程で、特に高度な技能が要求される。ここでは、積層したステインや追加で塗った絵具で、目標物に似せた色合いを出し、最後に焼き固めて終了する。具体的には、最初にクラウンの土台となる型を作成し、この型に顔料入りのセラミックを塗布し、これを焼成する。セラミックの塗布箇所は、部分的に行い、その度に焼成し、これらの作業を繰り返すことにより、実際の歯と同様に内側から組織の色が層状に積層されるので、極めて歯に似せることのできるクラウンが完成する。このステップでは、歯科医から依頼を受けたクラウンの色を再現するための工程(色合わせ工程)であるか否を判定する。
ステップS27における判定の結果、色合わせ工程の場合には、事前にステインなどの材料や道具が準備されているはずなので、次に、ステインが準備されていることをステップとして記載する(S29)。ここでは、ステップS31、S33における処理の準備を行う。あるいは行われていたことを示す。なお、色合わせ工程において(S31、S33)、ウエラブル端末の画像入力部によって画像を取得し、この画像を処理部位に関する情報と共に、サーバ14のデータベース14aに送信し、記録しておく。また、色合わせの工程や、後述する焼成の工程(S37、S39)において、同様のクラウンを製作する際の情報を参照できるようにしておけば、製作時のガイド表示として活用できる。色合わせ等の各工程が判定されると、この判定結果を確認しやすい形式(インデックス、メタデータ)で、撮影画像の画像データに関連付けて記録しておけば、作業終了後に、画像の検索や再生の際に便利であり、またガイド表示の際にも活用することができる。
続いて、絵具の混合を行う(S31)。ここでは、セラミックに所望の色を発色させるために、レシピに従って1または2以上のステインを混合する。この混合比率は、画像に関連付けて、データベース14aに送信し、記録しておいてもよい。また、ステイン以外の絵具を塗って、他の歯に似せて、あえて汚れや陰影のあるクラウンにしてもよい。
絵具を混合すると、次に、クラウンに塗布する(S35)。ここでは、ステップS31で混合したセラミックと顔料を、クラウンの型に塗布する。前述したように、ステップS31およびS33における動作は、ウエラブル端末の画像入力部によって画像が取得され、記録される。
次に、終了か否かを判定する(S35)。色合わせ工程は、部分ごとに順次行っていき、このステップでは、所定の部分についてセラミックと顔料の混合物が塗布されてか否かを判定する。この判定は、歯科技工士がウエラブル端末または技工所情報端末に手動入力してもよいが、ウエラブル端末の設けられた画像入力部によって取得された画像に基づいて判定する。この判定の結果、終了していない場合には、ステップS31に戻る。
一方、ステップS35における判定の結果、終了の場合には、焼成装置の設定を行う(S37)。所定の部分についてセラミックと顔料の混合物の塗布が終了した場合には、これを所定温度で焼成する。このステップでは時間毎の温度を設定する。この設定は、歯科技工士がウエラブル端末または技工所情報端末に手動入力してもよいが、ウエラブル端末の設けられた画像入力部によって取得された画像に基づいて、設定情報を解析するようにしてもよい。また、ここで設定された焼成情報は、画像に関連付けて、データベース14aに送信し、記録しておいてもよい。
焼成装置の設定を行うと、焼成する(S39)。ここでは、炉の中にセラミックと顔料の混合物を塗布した型を配置し、設定温度で焼成する。焼成のための時間が経過すると、ステップS27に戻り、次の処理が色合わせ工程か否かを判定し、前述の処理を繰り返す。
ステップS27における判定の結果、色合わせ工程でない場合には、その他の工程作業を行う(S41)。ここでは、クラウンを積層して行く以外の品質のチェックや追加工などを行い、歯としての機能を満足するための形状の合わせ込み、出来た成果物の発送や、作業のレポートなど記録、管理業務などを行う。もちろん、こうした工程にも、その工程ならではの道具や材料等があるので、本実施形態をこうした工程ごとに適用しても良い。
その他の工程作業を行うと、次に、終了か否かを判定する(S41)。歯科技工士が、クラウンの製作のための作業が終了したか否かを判定する。終了していない場合には、ステップS27に戻る。また、技工士が判定して、手動入力、音声入力せずとも、ウエアラブル端末が持つセンサ等で、作業した場所などから作業の終了を検出しても良いし、ウエアラブル端末のカメラや、作業時の近傍におかれたカメラで、道具がおかれたとか、片付けられたとかを撮像結果の画像で判定して、終了判定を代用することも可能である。
なお、工程の判定としては、作業者の位置や顔から、作業者がどこを見ているかを判定して、どの作業を行っているかを推定してもよい。このように、ウエラブル端末のカメラや、作業時の近傍におかれたカメラによる撮影画像は、作業近傍から撮影された作業中視界で得られるもので、当該作業者の両手での作業の様子や、上記作業中視界に入っている器具、道具、材料を、この作業特徴のデータベースを使って判定する判定部を有し、上記工程で使用する使用器具、道具または材料に基づいて、作業起点や作業途中に対応する上記撮影画像のコマを類推するインデックス情報付与部を有することで、一連の作業から細分化された工程を見つけやすくする。つまり、このような工夫が本実施形態による効果が明らかになる部分で、一連の作業を、検索しやすい短いステップにするために、並べられ、準備された特定の道具や手にした道具や、手の動きやチェックなどの行為を手がかりに細分化している。これは、ウエアラブル端末のカメラや監視カメラによって画像を判定することによって可能になる。作業独特の音声を参考にしてもよい。このような判定を行うために作業の始まりと終わりを判定するきっかけとなるような特徴的な道具を図4のデータベースなどに記載しておき、参照してもよい。こうした工夫がないと、塗布の様子が見たいのに、混合の工程を見なければならない、といった非効率を生じる。また、こうしたデータベースは、作業の順番などに応じて並べられた表形式にしたり、作業にかかる時間を想定時間情報などを有していれば、それらを各工程の検出の情報として利用することが出来る。
一方、ステップS43における判定の結果、終了した場合には、歯科医のもとに完成クラウンを送付する(S45)。完成クラウンを送付すると、歯科技工士のフローは終了する。なお、前述したように、歯科医は完成したクラウンを受領すると、検品し、問題なければ患者にクラウンを装着する。
次に、図4を用いて、サーバ14のデータベース14aに記録される情報について説明する。本実施形態においては、各工程において、どのような道具を用いて、どのような作業を行うかについて、データベース14aに記憶している。歯科技工士が作業を行う際に、データベース14aに記憶されている項目について、撮影画像に関連して具体的な内容を記録するようにしてもよい。
工程No.Aは、まず並べられた材料であるステインの準備が正しいかを判定するパレット情報に関する。パレット情報は、パレットを準備する工程での情報である(図3のS31参照)。ステインの準備が間違っていると、そもそも正しい作業ができないので、作業前の準備ができかたを確認する工程としてあえて分けて行っている。パレットの形状は、繰り返しの多い画像特徴があり、検出しやすく、検出しやすいがゆえに特記した。このパレット工程においては、道具情報として、パレットで何色の絵具を用意し、また作業情報として、パレットで絵具を混合する際の絵具の量であるかを記録する。正しいものが正しい配置、正しい量で用意されたかを確認する。もちろん、準備するものは、道具類もあるので、これらも画像認識で判定できるように、画像と道具名を関連付ける画像辞書としてもよい。
工程No.Bは、絵具混合情報であり、この情報はパレットにおいて絵具(セラミック、顔料)を混合させる工程での情報である(図3のS31参照)。この絵具混合工程においては、道具情報は、筆と絵具であり、具体的には混合する際の筆の種類、また絵具の種類を記録する。また作業情報は混合数であり、具体的には、どの色をどの位混合したかを記録する。こうしたアナログ的な作業では、筆遣いなど、見てみないと分からないものが多く、画像としての記録が好ましい。
工程No.Cは、塗布工程情報であり、この情報はパレットにおいて混合した絵具をクラウンの型に塗布するための情報である(図3のS33参照)。この塗布工程においては、道具情報は筆であり、具体的には塗布する際に使用する筆の種類であり、作業情報として塗布回数であり、具体的には、何回に分けて塗布するかを記録する。
工程No.Dは、焼成工程情報であり、この情報は塗布が完了した後に、焼成装置において、焼成するための情報である(図3のS39参照)。この焼成工程においては、道具情報は焼成装置であり、具体的には、メーカ名、型式名等であり、作業情報としては設定、具体的には時間経過とその時の焼成温度等を記録する。
これらのデータベースは、その作業に特有の道具や、チェック項目が記載されているので、ここに掲載された内容を検出する。画像で判定できる内容としており、これをもとに画像を判定したり、検索したり、参照できたりする。工程Aでは、並んだパレットが規定のものか、用意された色数がどうか、などは画像で判定可能である。これは、特定の基準画像との比較で判定可能である。また、量なども画像から判定できる。工程Bは、絵具混合などは、筆裁きなどが重要で、この時の作業が後で参照しやすいように、あえて塗布とは分けている。特徴的な道具や、混合作業特有の動き(筆先がパレット部にあるなど)が画像判定しやすい。こうした検出方法などもデータベースにしておけば、検索がしやすい。同様に塗布は筆先が基材またはもう一方の手の近くにあるなどの画像判定で検索ができる。こうしたデータベースは、単純に辞書画像との比較のみならず、教師画像を多数学習させる深層学習で高性能化や、多様化に対応が可能である。このような考え方は他の実施例にも共通していることは言うまでもない。
以上、説明したように、本発明の第1実施形態においては、データベース14aに、クラウン製作の際に使用する種々の情報を記録できる。そして、技工士がクラウンを製作する際の種々の情報をデータベース14aに記録しておく。記録しておいた製作時の情報は、他の技工士が同様のクラウンを製作する際に活用することが可能である。一般に、各工程に分解した形でエビデンスを残すことが望ましい。エビデンスとしては、作業の工程表やチェックリストや受け入れ検査結果、出荷検査結果、作業者、日にちなど、手書きやキーボード入力された資料等があり、それを補足する情報も利用することができ、例えば、本実施形態におけるエビデンスとしては、ウエラブル端末及び/又は技工所内に配置された画像入力部によって取得された画像、音声入力部によって取得された技工士等の音声等がある。そして、これらのエビデンスによって、作業者に負担をかけず、工程ごとの切り分けを行うことができ、また切り分けの判定は、それぞれの工程の特徴に応じて行うようにすればよい。工程ごとに切り分けられた画像データ等の情報は、確認もしやすい形式(例えば、メタデータ付きの画像ファイルなど)で記録しておけば、様々な状況で、その肝心の部分だけを検索したり、確認したりすることが出来る。
次に、図5ないし図17を用いて、本発明の第2実施形態について説明する。第1実施例で説明した部分は、重複を避けているが、対応する部分は同様の作業が行われており、判定の方法も同様の技術を適応してもよい。図5は本実施形態の主として電気的構成を示すブロック図である。本実施形態におけるシステムは、製作物を製作するための複数の工程を撮影し、記録することができる。このシステムは、ウエアラブル端末100、サーバ200、情報端末300を有する。図5には、ウエアラブル端末100、サーバ200、情報端末300は、それぞれ1つのみであるが、ネット等を介して複数接続できるようにしてもよいことは勿論である。
ウエアラブル端末100は、制御部110、通信部120、記録部130、情報取得部140、表示部150を有する。ウエアラブル端末100は、眼鏡形状をしており、技工士が装着し、クラウン等の画像を取得すると共に、クラウン製作時のガイド情報を表示可能である。ウエアラブル端末100の形状については、図8を用いて後述する。眼鏡型である利点の一つは、多くの作業が作業者の目視チェックを前提としており、それと同じ方向から眼鏡型端末内蔵のカメラ(情報取得部)で対象物を画像確認できるという点にある。もちろん、打音検査などの場合も、眼鏡型であれば、作業者が聞いたのと同様の音声を内蔵マイク(情報取得部)で音声確認可能である。このように、工程ごとの切り分けを、作業者に負担をかけず、それぞれの工程の特徴に応じて判定することができる。
制御部110は、CPU(Central Processing Unit)とプログラムを記憶したメモリ、および周辺回路を有するASIC(Application Specific Integrated Circuit)から構成されている。この制御部110は、ウエアラブル端末100内の各部を制御することにより、全体制御を行う。また、制御部110内には、対象物判定部111、作業判定部112、表示制御部113を有し、これらの各部は、本実施形態においては、CPUとプログラムによって実現する。なお、これらの各部の全部または一部を周辺回路によって実現してもよい。
対象物判定部111は、後述する情報取得部140内の画像入力部140aによって取得された画像データに基づいて、技工士の作業対象物が何であるかを判定する。また対象物がクラウンである場合には、作業部位がどこであるかも判定する(例えば、図15のS181参照)。
対象物判定部111は、撮影画像に基づいて製作物の部位に応じた部位別工程を検出する部位別工程検出部として機能する。また、撮影画像に基づいて工程を検出する工程検出部としても機能する。部位の判定にあたって、後述する図9に示すように、撮影画像に基づいて、把持用の把持具504と筆501の位置関係から作業を行っている部位を判定することができる。すなわち、部位別工程検出部は、製作物の製作時において、撮影画像中の第2の使用器具を画像判定することにより、製作物の部位を判定する。複数の器具、道具の位置関係で判定が可能である。
作業判定部112は、情報取得部140内の画像入力部によって取得された画像データに基づいて、作業中であるか否かを判定し(例えば、図15のS177参照)、また技工士の行っている作業内容が何であるかを判定する。例えば、セラミック材、ステイン材等の塗布作業、焼成作業等を判別する。
表示制御部113は、表示制御回路を有していてもよく、後述する表示部150に表示する画像の制御を行う。画像表示としては、技工士が行っている部位に対応したガイド表示等がある。
制御部110は、情報取得部140の画像入力部140aによって取得した撮影画像に、対象物判定部111(部位別工程検出部)によって検出された部位に関する情報を関連付ける(例えば、図15のS179、S181、S183等参照)。この関連付けの行われた撮影画像は、通信部120を介してサーバ200内のデータベース230に記録される。制御部110は、撮影画像と部位別工程を関連付ける関連付け部として機能する。
通信部120は、通信回路を有し、サーバ200とデータや制御コマンド等の通信を行う。通信部120は、関連付け部によって関連付けがなされた撮影画像を外部装置に送信し、外部装置で検索された撮影画像を受信するための通信部として機能する(図13のS127、S141等参照)。この通信部は、外部装置に対して、部位別工程検出部によって検出した部位に関する情報を送信し、外部装置によって検索された部位に関連する撮影画像を受信する。
記録部130は、電気的に書き換え可能な不揮発性メモリを有し、ウエアラブル端末100の各種データを記録する。記録部130内には、道具データベース(DB)131、作業データベース(DB)132の領域を有する。記録部130は、撮影画像と部位別工程を関連付けて撮影画像を記録する記録部として機能する。また、撮影画像と工程を関連付けて撮影画像を記録する記録部としても機能する。なお、この記録部は、ウエアラブル端末に限らず、サーバ200内に設けてもよい。
道具DB131は、技工士が作業する際に使用する道具に関するデータが記録される領域である。道具としては、例えば、筆、パレット等がある。作業DB132は、技工士が行う作業に関するデータが記録される領域である。作業としては、例えば、絵具の混合作業、絵具の塗布作業、焼成作業等がある。なお、道具DB131および作業DB132の少なくともいずれか一方をサーバ200内のデータベース230に記録するようにしてもよい。
情報取得部140は、画像入力部140aや音声取得部143等を有し、ウエラブル部100を装着した技工士に関する情報を取得する。画像入力部140a(図8参照)は、像形成用の光学レンズ、撮像素子、撮像回路等を有し、技工士が作業を行っている箇所の画像データを取得する。また音声取得部143(図8参照)は、マイク、音声信号処理回路等を有し、技工士が作業を行っている際の周囲の音声データを取得する。画像入力部140aは、製作物を製作するための複数の工程を撮影する撮影部として機能する。
表示部150は、技工士に作業ガイド等を表示するためのディスプレイ等を有する。図8を用いて後述するように、ウエラブル端末100は眼鏡タイプであり、技工士が装着した際に、片目側に作業ガイド等の表示が目の前の情景に重畳して表示される。表示部150は、撮影画像を表示する表示部として機能する。この表示部は撮影画像のから作業起点コマを類推して表示を開始する(図10参照)。また、表示部は、特定の部位についての撮影画像の検索を外部装置に要求した際に(例えば、図13のS119参照)、外部装置によって検索された撮影画像を表示する(例えば、図13のS141参照)。
サーバ200は、本実施形態に係るシステム全体を制御し、ウエアラブル端末100、情報端末300からアクセス可能であると共に、サーバ200からもウエアラブル端末100、情報端末300にもアクセス可能である。すなわち、ウエアラブル端末100から送信されてくる画像や情報をデータベース230に蓄積し、またウエアラブル端末100から要求される作業ガイドに関する情報を送信する。また、歯科医が使用する情報端末300から要求されるクラウンに関する情報を送信する。この他、種々の情報を受信し、また送信する。
サーバ200内の制御部210は、CPU(Central Processing Unit)とプログラムを記憶したメモリ、および周辺回路を有するASIC(Application Specific Integrated Circuit)から構成されている。この制御部210は、サーバ200内の全体制御を行うと共に、ウエラブル端末100および情報端末300に対するデータ・情報等の全体制御も行う。
また、制御部210内には、検索部211、表示制御部212、ガイド部213を有し、これらの各部は、本実施形態においては、CPUとプログラムによって実現する。なお、これらの各部の全部または一部を周辺回路によって実現してもよい。
検索部211は、ウエラブル端末100および情報端末300からの要求に応じた情報を検索する。例えば、技工士が装着するウエラブル端末100から作業部位に関するガイド情報の要求があった場合には、これに対応する情報をデータベース230から検索する(例えば、図14のS159参照)。また、歯科医が使用する情報端末300から患者の要望に合ったクラウンを製作可能な技工士に関する要求があった場合には、このクラウンに近い例をデータベース230から検索する(例えば、図12のS91、S97参照)。
検索部211は、例えば、図5に示すように、ウエラブル端末100から通信部120を介して作業画像P1から送信されてくると、この作業画像P1を用いて、データベース230の中から、これと同じ部位に対して同様の作業を行っている作業画像P2を検索する。また、検索部211は、情報端末300から撮影画像、シミュレーション画像、または目標画像を取得し、この取得した画像と類似する画像をデータベース230の中から検索する。
表示制御部212は、検索部211によって検索された情報を、ウエラブル端末100または情報端末300に送信する際に、各表示部150、350において、ガイド情報(テキスト情報を含めてもよい)が適正に表示されるように、表示制御を行う。例えば、検索部211が作業画像P2を検索すると、作業画像P1にガイド画像P3aを重畳した画像P3を生成し、ウエラブル端末100に送信する。ウエラブル端末100は、この受信した画像P3を表示部150に表示させる。また、画像P3に、ガイド画像P3aに関連して記録されているガイド情報(テキスト情報)を表示させるようにしてもよい。
ガイド部213は、検索部211が検索した画像を用いて、ガイド表示を行うためのデータを生成する。また、情報統制部213aは、開示範囲の情報統制を行う。すなわち、後述するように契約DB232によって、情報開示される範囲が制限されており、情報統制部213aは、この契約に従った情報開示を行う(例えば、図14のS159参照)。
また、ガイド部213は、図10を用いて後述するように、ウエアラブル端末100から特定部位についてガイド表示が要求された場合、この特定部位における作業を開始する所定時間前等の起点からの画像のコマを類推する。なお、起点は所定時間前に限らず、作業用の道具の位置関係ある場合等、他の事項に基づいて類推するようにしてもよい。ガイド部213は、部位に応じた工程で使用する第1の使用器具または材料に基づいて、作業起点に対応する撮影画像のコマを類推する起点画像類推部として機能する。なお、本実施形態においては、起点画像類推部の機能はサーバ200内に設けている。しかし、ウエアラブル端末100がサーバ200から送信されてきた撮影画像を解析し、起点画像を類推するようにしてもよい。
また、ガイド表示の動画開始部分を作業の起点に限る必要はなく、作業の途中の動画部分から見て前に戻るような確認方法もあり、起点画像類推部は動画のどのあたりかを判定するようなインデックス付与部、と言い換えても良い。つまり、この画像は作業者の目の近傍から撮影された作業中視界で得られるもので、当該作業者の両手での作業の様子や、上記作業中視界に入っている器具、道具、材料を判定する判定部を有し、上記工程で使用する使用器具、道具または材料に基づいて、作業起点や作業中の特定のタイミングに対応する上記撮影画像のコマを類推する起点画像類推部またはインデックス情報付与部を有する。この時、図4のようなデータベースに記録された道具や材料などの画像特徴と撮影画像を比較して、各工程を判定するだけでなく、一般的な工程別作業所要時間や、工程順序などをデータベースの情報として、工程判定の精度を上げてもよい。
情報端末300は、制御部310、通信部320、記録部330、操作部340、表示部350を有する。情報端末300は、歯科医が使用する端末であり、この情報端末300を介して、患者の歯に適したクラウンを製作可能な技工士を検索することができる。すなわち、クラウンを製作するには、患者の歯の色等に最も近い、もしくは患者の好みに合った色等にしなければならないが、審美性が要求されるため、技工士の過去の実績に考慮して、技工士を探し出すことが望ましい。そこで、本実施形態においては、技工士の過去のクラウン製作の実績を示す画像を、データベース230に記録しておき、この画像を表示することにより、歯科医が最適な技工士を探し出せるようにしている。
制御部310は、CPU(Central Processing Unit)とプログラムを記憶したメモリ、および周辺回路を有するASIC(Application Specific Integrated Circuit)から構成されている。この制御部310は、情報端末300内の各部を制御することにより情報端末300の全体制御を行う。また、制御部310内には、操作判定部311、表示制御部312を有し、これらの各部は、本実施形態においては、CPUとプログラムによって実現する。なお、これらの各部の全部または一部を周辺回路によって実現してもよい。
操作判定部311は、操作部340の操作状態を判定する。例えば、操作部340としてキーボードが設けられている場合には、キーボードによって入力されたテキスト情報を判定する。同様に、操作部340としてマウスが設けられている場合には、マウスの動きを判定する。
表示制御部312は、表示部350に表示する画像の制御を行う。例えば、サーバ200からクラウンに関する画像が送信されてきた場合には、この画像の表示制御を行う。
通信部320は、通信回路を有し、ウエラブル端末100とデータや制御コマンド等の通信を行う。
記録部330は、電気的に書き換え可能な不揮発性メモリを有し、情報端末300の各種データを記録する。記録部330内には、患者データベース(DB)331、技工士データベース(DB)332の領域を有する。患者DB331は、患者の氏名、治療内容、装着するクラウン等に関するデータが記録される領域である。技工士DB332は、当該歯科医院と取引の実績のある技工士、または取引の候補となる技工士に関するデータが記録される領域である。
操作部340は、情報端末300に設けられているキーボード、マウス、タッチパネル等の入力用の操作部材である。情報入力部360は、画像や音声等の情報を情報端末に入力する。歯科医は情報入力部360を使用して、患者用のクラウンを製作するための形状、色等の情報を入力することができる。
表示部350は、情報端末300に設けられているディプレイ等であり、サーバ200から送信されてきた画像を表示する。また、種々のメニュー画面等も表示可能である。
次に、図6を用いて、本実施形態において記録するデータについて説明する。図6(a)は、データベース230に記録されているデータを示す。データベース230には、製作物形状データベース(DB)231と、契約データベース(DB)232と製作データベース(DB)233の領域を有する。
製作物形状DB231は、歯の形状およびクラウンの形状を3次元的な表したデータベースである。歯科医は、技工士を検索する際に、この製作物形状DB231を用いて、類似の形状のクラウンを製作した技工士を検索することが可能となる。
契約DB233は、技工士や歯科医との情報取得に関する契約が記録されている。前述したように、技工士および歯科医は、契約により、情報開示される範囲が異なっている。例えば、技工士Aは、ウエラブル端末100によって取得した画像等でサーバ200に送信した情報は、制限なく、第三者に開示可能としているが、技工士Bは第三者に開示できる範囲を制限している場合がある。また、技工士側でも開示を受けられる範囲に制限がある場合がある。そこで、本実施形態においては、これらの契約に応じた開示範囲の制限を行えるようにするため、契約DB232を設けている。
製作DB233は、技工士がクラウンの製作を行った実績を記録する。「上1番」「上2番」は、歯の位置を示す。それぞれ実際に製作したクラウンを作例A、作例Bとして記録し、それぞれの作例の製作した技工士名と、その作業情報(作業DB)を、データベースとして記録している。
製作DB233において、製作例、技工士名、作業DBの順に秘密性が高まり、情報統制が重要となる。重要な情報について開示を許諾している技工士については、特典を受けられるようにしてもよい。
図6(b)は、工程別情報のデータの構造を示す。この工程別情報を用いることにより、ガイド部213がガイド表示を行うことができる。
図6(b)において、左側には歯科医からのインプットされる情報を示す。すなわち、インプット情報としては、クラウンの目標色、クラウンの土台となる土台色、クラウンの厚み等の色に関する情報がある。また、クラウンの土台形状、クラウンの形状(目標形状)、およびクラウンを製作する歯に隣接する歯の情報(隣接情報)がある。なお、目標色等の色情報については、測色装置によって数値化された情報を用いると便利である。測色装置としては、例えば、オリンパス株式会社の「クリスタルアイ」等を利用すればよい。
また、図6(b)の右側には、技工士は目標色等の色情報を実現するためのレシピ、すなわち、セラミック材料、顔料等の種類、混合比等の情報を示す。クラウンを製作するために、何回も塗布と焼成を繰り返しており、それぞれの層(図6(b)では層A〜層C)毎に、色や焼成スケジュール、測色装置による測色を行う。なお、測色装置によってチェックを行い、レシピに記載の色と、測色装置によって測色された結果の差(色差)ΔEが、所定よりも大きくなった場合には、やり直すことが望ましい。最後の測色装置による測色結果は、完成品のレベルとなるので、重要である。
次に、図7を用いて、技工士の選定およびクラウン製作の際のガイド表示について説明する。図7の右側に記載の歯科医420は、クラウンの製作を依頼する技工士(技工所)を、情報端末300によって検索している。すなわち、歯科医420は、操作部340を操作することによって、クラウン製作する技工士の選定のためのメニュー画面に表示させる。そして、情報入力部360からクラウンの形状や色に関する画像を入力し、また操作部340によって、その他の条件等を入力する。
情報端末300の表示部350には、クラウンの形状や色等が表示され、これをサーバ200に送信する。サーバ200はデータベース230に記録されている過去に製作されたクラウンの画像の中から、受信した画像に近いクラウンを検索し、検索したクラウンの画像を情報端末300に送り返す。図7の表示部350には、これらの検索画像と、情報端末300から送信したクラウンの画像を比較し易いように並べて表示する。
歯科医420は、表示部350に表示された複数のクラウンの画像の中から歯科医420や患者の好みの色等で製作することができる技工士を選定することができる。技工士が決まれば、情報端末300およびサーバ200を介して、技工士に発注するようにシステムを構成すれば、大変便利である。
図7の左側は、クラウンを製作する技工士A430および技工士B440を示す。技工士A430および技工士B440は、それぞれウエアラブル端末100を頭部に装着してクラウンを製作している。技工士A430が、クラウンを製作する際に、ウエアラブル端末100の画像入力部140aによって撮影された動画画像P15はサーバ200内のデータベース230に記録され、同様に、技工士B440の製作中の動画画像P16もサーバ200内のデータベース230に記録される。
今、技工士A430がクラウンの製作にあたって、製作方法に指導を受けることを希望する場合に、同じ部位に同様の処理を施す場合の動画を閲覧できれば、大変参考になる。但し、製作方法は企業秘密にしている場合が多い。そこで、技工士A430はサーバ200を介して閲覧することについて許可を申請する。サーバ200内の情報統制部213aは、契約DB232に記録されている契約内容に応じて、技工士A430にガイド用の画像を閲覧するか否かを判断する。
情報統制部213aによって、許可されると技工士A430は、現在、製作中の部位に関するガイド用画像をウエラブル端末100の表示部150によって、作業をしながら閲覧することができる。図7に示す例では、技工士A430は、技工士B440が行った作業を閲覧している。この場合、技工士B440には、何らかの特典が付与される。特典としては、他の技工士が行った作業の動画を閲覧することができるとか、金銭的報酬が与えられる等がある。
次に、図8を用いて、ウエラブル端末100について説明する。このウエアラブル端末100は、眼鏡型の形状しており、図8(b)に示すように、技工士450の頭部に装着する。ウエアラブル端末100は、つる170(図8(a)参照)の先端部に画像入力部140aが設けられている。
また、レンズを配置する枠(リム)には、本実施形態においては、レンズを設けず、屈折力のないガラスを配置するか、素通し状態としておく。なお、技工士450の目に合わせて、レンズを配置するようにしてもよい。枠に重畳して表示を行うように、表示部150が配置されている。
図8(a)は、ウエアラブル端末100の形状を示す斜視図である。ウエアラブル端末100は、前述したように眼鏡型の形状をしており、眼鏡のつる(テンプル)170と、眼鏡の枠の位置に設けられた表示部150を有する。つる170の先端部には、対物レンズ141が配置され、つる170の内部であって対物レンズ141によって画像が形成される位置に撮像素子が配置されている。画像入力部140aは、対物レンズ141および撮像素子等から構成される。
ウエラブル端末100のつる170には回路収納部142が設けられており、この回路収納部142は、制御部110、通信部120、記録部130等の回路が収納されている。また、つる170の耳かけ付近には、音声・振動出力部160が設けられている。音声・振動出力部160は、画像でガイド表示する際、または画像なしで音声や振動によるガイドを行う。
ウエラブル端末100の表示部150には、つる部170に設けられた表示パネル151と、この表示パネル151に表示された画像を技工士450の目451に導光するための導光部152が設けられている。技工士450は導光部152を介して、ガイド表示(ガイド情報)を見ることができる。また、表示部150には、音声入力部143が設けられている。音声入力部143には、マイク等を有し、技工士450の周辺の音声を取集することができる。
図8(c)は、ウエアラブル端末100の視界を説明する図である。二点鎖線140sで囲まれた領域は、対物レンズ141を介した画像入力部140aの視界である。この視界の画像が、静止画または動画で記録される。破線140L、140Rで囲まれた2つの領域は、それぞれ眼鏡の枠によって決まる視界である。
また、図8(c)に示す破線140L、140Rで囲まれた視野の内、上部側は技工士の視界Nであり、下部側は技工士の視界Cである。視界Nは、技工士が作業を行う際の視線方向の視界であり、視界Cは、技工士が作業の際に表示部150のガイド表示を見るときの視線方向視界である。このように、技工士は作業を行う際には、視界Nの範囲を見ることから表示部150におけるガイド表示が邪魔にならず、またガイド表示を見ているときは視界Cの範囲を見ており、作業台の様子をある程度見ることができる。すなわち、視界の一部に表示部150による表示が見えるが、表示部150が視界を覆い尽くすことないことから好都合である。
次に、図9を用いて、技工士が行う作業と表示部150によるガイド表示について説明する。図9(a)は、技工士450がウエアラブル端末100を装着し、作業を行う際の視線方向と、表示部150のガイド表示を見る際の視線方向を示す。すなわち、作業を行う際には、視線方向はLS1であり、一方、表示部150を見る際には、視線方向はLS2である。両視線方向は、角度θ2だけずれている。
また、画像入力部140aの撮像範囲は撮像方向SL1を中心とし、点線で示される範囲である。技工士450の視線方向LS1と、画像入力部140aの撮像方向SL1は、同じ方向であることから、画像入力部140aは技工士450が作業しているところの画像を取得することができる。
図9(b)〜(d)は、作業台におけるクラウン500に絵具(セラミックと顔料を混合)を塗布する様子を示す。図9(b)は、パレット502の凹部で絵具503が混合され、この混合された絵具を筆501に浸している様子を示す。図9(c)は、クラウン500を把持具504に取り付け、筆501でクラウン500に絵具を塗布している様子を示す。
図9(b)(c)に示す状態では、技工士450は表示部150を見ることなく、視界N(図8(c)参照)を通して、直接、見ながら作業を行っている。作業中に、ガイド表示を見たくなると、視線方向をLS2に変え、表示部150を見るようにする。この時の様子を図9(d)に示す。表示部150には、手本となる画像が表示されることから、このガイド表示を見ながら、クラウン500の絵具を塗布することができる。
また、把持具504とクラウン500の位置関係に基づいて、技工士450が何れの部位に対して作業を行っているかを判断することができる。クラウン500は、決められた位置に突起が設けられており、この突起を把持具504によって把持することができる。従って、把持具504と筆501の位置関係を見ることにより、技工士450がどの部位に対して作業を行っているかを判定できる。この判定は、画像入力部140aによって取得された画像データを解析すればよい。
次に、図10を用いて、層Aから層Cについて記録された作業工程を示す。図10の上段は、クラウン500の特定の部位Aに例えば絵具Aを塗布する層A作業工程を示す。時刻T=T10は、作業起点のコマを示す。時刻T=Ttにおいて、技工士はクラウン500の中央部位に絵具の塗布を行っている。この部位を作業中に、技工士がガイド表示を要求した場合には、時刻Ttの所定時間前からモデルとなる作業見本の動画を表示部150に表示する。もちろん、様々な色を塗り重ねる場合もあり、この場合、絵具は複数となる。つまり、作業を明確に可視化し、検索しやすくするには、部位ごとに作業を分類する場合、絵具ごとに分類する場合、筆ごとに分類する場合、これらを全て、または一部を含むような時間帯で分類する場合などがあり得る。
図10の中段は、クラウン500に絵具Bを塗布する層B作業工程を示す。時刻T=Trにおいて、技工士はクラウン500の切端部位に絵具の塗布を行っている。この部位を作業中に、技工士がガイド表示を要求した場合には、時刻Trの所定時間前からモデルとなる作業見本の動画を表示部150に表示する。
図10の下段は、クラウン500に絵具Cを塗布する層C作業工程を示す。時刻T=Tcにおいて、技工士はクラウン500の歯頸部位に絵具の塗布を行っている。この部位を作業中に、技工士がガイド表示を要求した場合には、時刻Tcの所定時間前からモデルとなる作業見本の動画を表示部150に表示する。
層Aから層Cの作業工程において、ガイド表示を行う際には、作業起点のコマ(ガイド表示の際の最初のコマ)では、絵具の材質、例えば、メーカの型番を表示し、また、Ttのコマでは色を測色装置の数値で表示するようにしてもよい。なお、作業起点のコマは、特定部位の作業を行う所定時間前のタイミングでもよく、また作業道具が特定の位置にある場合でもよい。
また、前述したように、作業部位は把持具504と筆501の位置関係を、画像入力部140aによって取得した画像データに基づいて判定することができる。
次に、図11ないし図16に示すフローチャートを用いて、本実施形態に係る記録システムの動作について説明する。
図11に示すフローチャートは、歯科医が使用する情報端末300における動作を示す。このフローは、情報端末300内の制御部310のCPUがメモリに記憶されたプログラムに従って、情報端末300内の各部を制御することにより実行する。
情報端末のフローに入ると、まず、操作中か否かを判定する(S51)。ここでは、操作部340において操作用の部材(例えば、キーボード、マウス、タッチパネル等)が操作されたか否かに基づいて判定する。
ステップS51における判定の結果、操作中であった場合には、クラウン加工DBアクセスモードか否かを判定する(S53)。歯科医がクラウン加工を行うために、サーバ200中のデータベースにアクセスする場合には、操作部340を操作し、クラウン加工DBアクセスモードを設定する。ここでは、このモードが設定されたか否かを判定する。この判定の結果、クラウン加工DBにアクセスする場合でなければ、操作部340の操作によって設定された作業に進む。
ステップS53における判定の結果、クラウン加工DBにアクセスする場合には、ログイン、サーバ通信、および通信結果を表示する(S55)。ここでは、サーバ200にアクセスするためのログインを行い、サーバ200と通信を行い、アクセスの可否を表示部350に表示する。
ログインでき、通信結果を表示すると、次に、その他の情報、例えば、患者の年齢、性別等を入力する(S57)。ここでは、クラウン製作を依頼する際に必要なる情報、上述した患者の年齢の他、クラウンの材料、費用等を入力する。
続いて、入力画像があるか否かを判定する(S59)。クラウンの製作を依頼する際に、患者の歯の形状、歯の色、隣接する歯の形状、クラウンの土台の色と形状等を示す画像が入力されているか否かを判定する。この判定は、歯科医が操作部340の操作に基づいて判定する。クラウンの外形は、患者のクラウンを製作する対象となっている歯の形状、隣接する歯の形状を考慮し、クラウンの内側の形状はクラウンの土台を考慮し、またクラウンの色は土台の色および患者の歯の色を考慮する。
ステップS59における判定の結果、入力画像がある場合には、画像を入力する(S61)。ここでは、情報入力部360によって、画像を情報端末300に取り込む。
ステップS61において、画像を入力すると、またはステップS59における判定の結果、入力画像がない場合には、次に、検索を行うか否かを判定する(S63)。歯科医がクラウンの製作を依頼する技工士を検索する場合には、操作部340を操作するので、この操作状態に基づいて判定する。
ステップS63における判定の結果、検索の場合には、情報を送信する(S65)。ここでは、情報端末300からサーバ200に、ステップS57、S61で入力した情報を送信する。サーバ200は、この情報を受信すると、受信情報に基づいて、条件に近いクラウンの例を複数、検索する。
一方、ステップS63における判定の結果、検索でない場合には、追加情報を取得するか否かを判定する(S67)。後述するステップS71において、検索結果が表示されるが、この検索結果が十分ではない場合には、更に追加情報を取得するか否かを判定する。この判定は、歯科医が操作部340の操作に基づいて判定する。
ステップS67における判定の結果、追加情報を取得する場合には、要求情報を送信する(S69)。ここでは、クラウンの色等、さらに絞り込むための情報や、次候補の表示等、サーバ200に要求情報を送信する。
ステップS65において情報を送信すると、またはステップS69において要求情報を送信すると、取得結果を表示する(S71)。サーバ200は、ステップS65における情報、またはステップS69における要求情報を受信すると、これらの情報に応じて、検索を行い、検索結果を情報端末300に送信してくる。このステップでは受信した検索結果を表示部350に表示する。表示に際しては、サーバ200のデータベース230に記録されている製作されたクラウンの実績の中から、入力された情報に近いクラウンの例を比較してみることができる。取得結果を表示すると、ステップS51に戻る。
ステップS67に戻り、このステップにおける判定の結果、追加情報の取得でない場合には、結果記録か否かを判定する(S73)。完成したクラウンを受領し、患者に装着すると、結果を記録する。ここでは、このような記録を行うか否かについて、歯科医が操作部340の操作に基づいて判定する。
ステップS73における判定の結果、結果記録の場合には、症例を記録する(S75)。ここでは、完成したクラウンの画像、患者にクラウンを装着した状態での画像、技工士に関する情報等を記録部330に記録する。
一方、ステップS73における判定の結果、結果記録でない場合には、契約等の処理を行う(S77)。歯科医とサーバ200の運営者との間で、情報送信および情報受信に関して契約が結ばれる場合には、これらの処理を行う。その他、クラウン加工に関する処理を行ってもよい。
ステップS75における症例記録を行うと、または契約等の処理を行うと、ステップS51に戻る。
このように、情報端末のフローにおいて、歯科医はクラウンの製作を依頼する際に、クラウンの土台、患者の歯の色等の情報を入力することにより、サーバ200のデータベース230に記録されている製作されたクラウンの実績の中から、入力された情報に近いクラウンの例を比較してみることができる。クラウンの製作の依頼にあたっては、患者の好みが大きく影響し、またクラウンの製作にあたっては審美性が要求される。複数のクラウンの例を比較してみることができることから、最適な技工士に依頼することが可能となる。
次に、図12に示すフローチャートを用いて、サーバ200の動作について説明する。このフローチャートは、情報端末300と協働する動作のみについて記載しており、後述する図14に示すフローチャートは、ウエラブル端末100と協働する動作のみを記載する。図12および図14に示すフローは、サーバ200内の制御部210のCPUがメモリに記憶されたプログラムに従って、サーバ200内の各部を制御することにより実行する。
サーバのフローに入ると、まず、アクセス有りか否かを判定する(S81)。前述したように、歯科医はクラウン製作の技工士を検索する際に、情報端末300からサーバ200にアクセスしてくる(図11のS55参照)。そこで、このステップでは、情報端末300からのアクセスの有無について判定する。判定の結果、アクセスがない場合には、待機状態となる。
ステップS81における判定の結果、アクセスがあった場合に、アクセスを許可するか否かを判定する(S83)。ここで、サーバ200にアクセスすることが許可されている者であるあるか否を判定する。この判定の結果、許可されない場合には、待機状態となる。
ステップS83における判定の結果、許可された場合には、次に、初期画面を送信する(S85)。ここでは、情報端末300に、クラウン加工関連のアイコン等を含む初期画面を送信する。
続いて、情報端末でクラウン加工関連を行うか否かについて判定する(S87)。歯科医が情報端末300からクラウンの製作を依頼するための検索等を行う場合には、初期画面でクラウン加工関連のアイコンをクリックする等の操作を行う。このステップでは、情報端末300からの情報に基づいて判定する。この判定の結果、クラウン加工関連でない場合は、初期画面で設定された他のサービスを実行する。
ステップS87における判定の結果、クラウン加工関連の場合には、画像入力で検索するか否かについて判定する(S89)。歯科医は、クラウンを製作する技工士を検索する際に、歯の色、歯の形状、歯の色等を示す画像を送信してくる場合がある(図11のS61〜S65参照)。このステップでは、情報端末300から、このような画像が検索のために送信されてきたかに基づいて判定する。
ステップS89における判定の結果、画像入力で検索を行う場合には、画像、情報でデータベース(DB)検索を行う(S91)。ここでは、情報端末300から入力した画像、および画像に関連して入力した情報に基づいて、データベース230内で検索を行う。すなわち、データベース230に記録されている完成したクラウンの画像、およびそれに関する情報の中から、入力した画像および情報に近いクラウン(類似症例)を検索する。
続いて、類似症例検索結果を比較表示する(S93)。ステップS91における検索では、近いもの(類似症例)を複数探し出してくるので、ここでは、検索された類似症例を比較して表示できるよう、画像データ等を情報端末300に送信する。情報端末300は、このデータを受けると結果を表示する(図11のS71参照)。なお、表示方法としては、2以上の症例を並べて表示してもよく、情報端末300側の指示で順次表示するようにしてもよい。
比較表示を行うと、次に、追加情報が要求されているか否かについて判定する(S95)。前述したように、情報端末300では、歯科医がさらに情報の取得を要求する場合には、要求情報を送信してくる(図11のS69参照)。このステップでは、追加情報を要求されているか否かを判定する。この判定の結果、追加情報の要求が無い場合には、ステップS81に戻る。
ステップS95における判定の結果、追加情報の要求がある場合には、契約DBの結果に従って選択された情報を送信する(S97)。ここでは、データベース230内の契約DB232に記録されている契約の範囲内で、追加情報の要求に従って情報を検索し、情報端末300に送信する。情報端末300は情報を受信すると、表示部350に表示を行う(図11のS71参照)。情報を送信すると、ステップS81に戻る。
ステップS89に戻り、この判定の結果、画像入力で検索を行わない場合には、次に、画像入力で記録するか否かを判定する(S99)。前述したように、歯科医が受け取った完成クラウン、患者に装着した状態、技工士情報等を記録する場合がある(図11のS75参照)。ここでは、情報端末300から記録の要求があるか否かに基づいて判定する。
ステップS99における判定の結果、記録を行う場合には、症例として記録し、データベース(DB)化する(S101)。ここでは、患者にクラウンを装着した状態での画像(術後画像)、技工士情報等を、データベース230に記録する。記録すると、ステップS81に戻る。
一方、ステップS99における判定の結果、記録を行わない場合には、契約DBの更新等を行う(S103)。ここでは、ステップS89、S99における判定に当てはまらない場合であり、その他の処理、例えば、契約DBの更新等を行う。契約DBの更新としては、例えば、技工士に自らのクラウン製作の画像の閲覧を許可した場合等における特典を、契約DBに記録する。契約DBの更新等を行うと、ステップS81に戻る。
このように、情報端末と協働するサーバのフローにおいては、ウエアラブル端末100からの送信されてきた患者の歯の形状、歯の色、隣接する歯の形状、クラウンの土台の色と形状等に基づいて、これに近いクラウンを検索している。このため、歯科医は患者の歯に最適なクラウンを製作できる技工士を検索することが可能である。また、術後の画像や技工士情報等をサーバ200に記録するようにしているので、サーバ200における検索を容易にすることができる。
次に、図13に示すフローチャートを用いて、ウエアラブル端末100の動作について説明する。このフローチャートは、ウエアラブル端末100内の制御部110のCPUがメモリに記憶されたプログラムに従って、ウエアラブル端末100内の各部を制御することにより実行する。
ウエアラブル端末のフローに入ると、まず、操作が有ったか否かについて判定する(S111)。ここでは、技工士がウエアラブル端末に設けられた電源スイッチ等の操作部材を操作したか否かを判定する。
ステップS111における判定の結果、操作がなかった場合には、所定時間で電源をオフする(S131)。ウエアラブル端末100の電源電池は一般に小型のものが多いことから、電源浪費を防止するために、所定時間で電源をオフするようにしている。電源をオフすると、スリープ状態となり、電源スイッチの状態のみを監視するようになる。
ステップS111における判定の結果、操作があった場合には、次に、初期画面を表示する(S113)。ここでは、表示部150に初期画面を表示する。初期画面では、クラウン加工DB(データベース230)にアクセスし、情報を取得したり、またデータベースDBに画像を記録する等のモード選択を行うことができる。
初期画面を表示すると、次に、クラウン加工DBにアクセスか否かを判定する(S115)。データベース230にアクセスし、ガイド用画像を閲覧した場合等には、技工士はクラウン加工DBにアクセスを選択する。
ステップS115における判定の結果、クラウン加工DBにアクセスする場合には、ログイン等を行う(S117)。ここでは、ウエアラブル端末100からサーバ200にアクセスするためのIDやパスワードを入力し、ログインを行う。
続いて、ガイド情報を要求するか否かを判定する(S119)。技工士がクラウン製作を行っている際に、ガイド用画像やレシピ等のガイド情報を閲覧したい場合には、ガイド情報をサーバ200に要求する。要求方法としては、例えば、情報取得部140の音声入力部143(図8参照)に音声で入力するようにしてもよく、また手動操作部材を設けておいてもよい。なお、ガイド情報を要求し閲覧できた場合には、技工士に与えられる特典から閲覧相当分を減算する。
ステップS119における判定の結果、ガイド情報の要求であった場合には、ガイド情報を取得する(S121)。ここでは、サーバ200のデータベースに記録されている画像の中から、現在の作業にあった画像を検索し、検索されたガイド情報を取得する。具体的には、現在作業中のパターンと同様のパターンでクラウンを製作し、また同様の部位に対する作業を行っている画像、レシピ等(図6参照)を、取得する。この取得した情報は、後述するステップS141において、表示部150に表示する(例えば、図9(d)参照)。
一方、ステップS119における判定の結果、ガイド情報の要求でない場合には、情報をアップするか否かを判定する(S125)。前述したように(例えば、図9(a)〜(c)参照)、本実施形態においては、ガイド用画像等のガイド情報をサーバ200に記録しておき、契約に従って他の技工士に開示することも可能である。このステップでは、ガイド画像をサーバ200に記録するか否かを判定する。判定方法としては、例えば、情報取得部140の音声入力部143(図8参照)に入力した音声に基づいて行ってもよく、また手動操作部材を設けておいてもよい。
ステップS125における判定の結果、情報アップの場合には、作業動画をアップする(S127)。後述するステップ135、S137において、情報取得部140の画像入力部140aによって、作業中の動画やまた測色カメラで撮影した静止画や色情報を取得している。このステップでは、これらの情報をサーバ200に送信し、データベース230に記録する。なお、後述するように、この情報は契約によって認められている範囲に開示する。
続いて、特典取得加算依頼等を行う(S129)。サーバ200は、技工士からガイド画像等の情報の提供を受けたことから、この技工士に特典を付与する(図7参照)。
ステップS129において特典を加算すると、またはステップS121においてガイド情報を主とすると、次に、戻るか否かを判定する(S123)。ここでは、最初の状態に戻るか否かを判定する。判定方法としては、例えば、情報取得部140の音声入力部143(図8参照)に入力した音声に基づいて行ってもよく、また手動操作部材を設けておいてもよい。この判定の結果、最初に戻らない場合には、ステップS119に戻る。
ステップS115に戻り、このステップにおける判定の結果、クラウン加工DBでない場合には、加工画像の記録か否かを判定する(S133)。クラウン製作の作業中に、動画を記録するか否かを判定する。なお、この動画は、契約によって認められている範囲に開示される(S119、S121)。
ステップS133における判定の結果、加工画像の記録の場合には、動画撮影を行い、記録する(S135)。ここでは、情報取得部140の画像入力部140aによって、クラウン製作の作業中の動画を取得する。前述したように、この動画はステップS127においてこれをサーバ200に送信し、データベース230に記録する。動画撮影記録の詳しい動作については、図15を用いて後述する。
続いて、動画撮影が終わると、測色カメラで撮影する(S137)。測色カメラは、色を正確に再現することができ、また色を数値で表すことができ、また静止画を取得する。ここで、取得した画像データを含む情報は、サーバ200に送信し、データベース230に記録される。測色カメラで撮影するとステップS111に戻る。
ステップS133における判定の結果、加工画像記録でない場合には、ガイド表示か否かを判定する(S139)。図7、図9(d)を用いて説明したように、技工士が他の技工士の作業状態を参考にしたい場合には、サーバ200に対してガイド画像の表示を要求する。このステップではガイド画像の表示を行うか否かを判定する。判定方法としては、例えば、情報取得部140の音声入力部143(図8参照)に入力した音声に基づいて行ってもよく、また手動操作部材を設けておいてもよい。
ステップS139における判定の結果、ガイド表示を行う場合には、条件に従って表示する(S141)。ここでは、ステップS121において取得した情報に基づいてガイド表示を行う。この条件に従って行う表示の詳しい動作については、図16を用いて後述する。
一方、ステップS139における判定の結果、ガイド表示を行わない場合には、歯科医からの特典を依頼する(S143)。技工士が他の技工士が行った作業動画を参照したことから、この他の技工士に対して特典を付与するようにサーバ200を介して依頼する。
ステップS141において表示を行うと、またはステップS143において特典を依頼すると、ステップS111に戻る。
このようにウエアラブル端末のフローにおいては、技工士が許可する場合には、クラウン製作の作業中に動画を撮影し、また動画に関連する情報をサーバ200のデータベース230に記録するようにしている(S125、S127参照)。また、技工士が他の技工士の作業を参照した場合に、許可されればデータベース230に記録された作業中の動画を参照することができる。このため、他の技工士の技能を学ぶことができ、技能の向上に役立てることができる。また、作業動画を提供した技工士には特典が付与される。
次に、図14に示すフローチャートを用いて、サーバ200の動作について説明する。このフローチャートは、前述したように、ウエアラブル端末100と協働する動作のみについて記載している。この図14に示すフローは、サーバ200内の制御部210のCPUがメモリに記憶されたプログラムに従って、サーバ200内の各部を制御することにより実行する。
サーバのフローに入ると、まず、アクセス有りか否かを判定する(S151)。前述したように、技工士はクラウン製作を行う際に、ウエアラブル端末100からサーバ200にアクセスしてくる(図13のS117参照)。そこで、このステップでは、ウエアラブル端末100からのアクセスの有無について判定する。判定の結果、アクセスがない場合には、待機状態となる。
ステップS153における判定の結果、アクセスがあった場合に、アクセスを許可するか否かを判定する(S153)。ここで、サーバ200にアクセスすることが許可されている者であるあるか否を判定する。この判定の結果、許可されない場合には、待機状態となる。
ステップS153における判定の結果、許可された場合には、次に、初期画面を送信する(S155)。ここでは、ウエアラブル端末100に、クラウン加工関連のアイコン等を含む初期画面を送信する。
続いて、技工士端末でガイド情報を要求しているか否かについて判定する(S157)。前述したように、技工士がガイド表示を要求している場合がある(図13のS119、S121参照)。このステップでは、ウエラブル端末100からこの要求がなされているか否かに基づいて判定する。
ステップS157における判定の結果、ガイド情報の要求がなされている場合には、契約DBに従い検索された情報を送信する(S159)。ここでは、契約DB232に記録されている契約に従い、許容されている範囲内で、データベース230内において要求された情報を検索する。情報が検索されると、ウエアラブル端末100にその情報を送信する。ウエアラブル端末100は情報を受信すると、表示部150に表示する(図13のS141参照)。
一方、ステップS157における判定の結果、ガイド情報の要求でない場合には、技工士端末画像を入力し、記録するか否かについて判定する(S161)。前述したように、技工士は作業中動画、または完成後のクラウンの画像をデータベース230に記録することを許容する場合がある(図13のS125、S127、S133、S135、S137参照)。ここでは、これらの画像を入力し、記録するかについて、ウエアラブル端末100からの信号に基づいて判定する。この判定の結果、画像入力して記録しない場合には、他のサービスを実行する。
ステップS161における判定の結果、画像を入力して記録する場合には、製作DBとして記録し、データベース化する(S163)。ここでは、入力した作業中の画像や、完成したクラウンの画像、クラウンに関する情報、および技工士に関する画像をデータベース230に記録する。
続いて、特典付与、契約DBに反映する(S165)。技工士の保持する技能は秘密情報であり、これを他人に開示することは好ましくないと一般的には考えられる。それにも関わらずデータベースの作成に協力してくれたことから、特典を付与し、また契約DB上でも優遇されるようにしている。
ステップS159において情報を送信すると、またはステップS165において特典を付与し、契約DBに反映すると、ステップS151に戻る。
このように、ウエアラブル端末と協働するサーバのフローでは、技工士からガイド情報の表示の要求があれば、契約に従って、ガイド情報を送信している(S157、S159参照)。また、技工士から画像等の情報が送信されてくると、これをデータベース化している(S163参照)。このデータベースを作成しておくことにより、技工士が必要とするガイド情報を閲覧することができ、技能の向上に役立てることができる。
次に、図15に示すフローチャートを用いて、ステップS135の動画撮影記録の動作について説明する。このフローは、ウエアラブル端末100内の制御部110のCPUがメモリに記憶されたプログラムに従って、ウエアラブル端末100内の各部を制御することにより実行する。
動画撮影記録のフローに入ると、まず、音声指示等がなされたか否かについて判定する(S171)。動画を撮影し、動画の画像データを記録する場合には、ウエアラブル端末100を装着した技工士は音声で動画の撮影開始を指示する。作業中は両手が塞がっていることが多いことから、音声で指示できると便利である。なお、ウエアラブル端末100に操作部を設けておき、手動操作するようにしてもよい。
ステップS171における判定の結果、音声指示等がない場合には、所定時間で電源をオフする(S173)。ウエアラブル端末100の電源電池は小型であることから、電源浪費を防止するために、所定時間が経過すると電源をオフし、スリープモードに入る。
ステップS171における判定の結果、音声指示等がなされると、カメラを起動する(S175)。ここでは、画像入力部140aが起動され、撮像素子によって画像データを取得する。
カメラを起動すると、次に、作業を確認する(S177)。ここでは、技工士がクラウン製作の作業を行っているか否かについて判定する。この判定は、画像入力部140aによって取得した画像データに基づいて行う。このステップにおける判定の結果、作業を確認できない場合には、ステップS171に戻る。
ステップS177において、作業を確認できた場合には、動画の記録を行う(S179)。ここでは、画像入力部140aによって取得された画像データをウエアラブル端末100内の記録部130に仮記録する。この動画記録は、後述するステップS187の記録中断まで続行する。仮記録された動画は、必要に応じてステップS127(図13参照)においてサーバ200に送信される。
次に、特定部位の作業か否かについて判定する(S181)。ここでは、画像入力部140aによって取得された画像データに基づいて、対象判定部111が作業部位について判定する。作業部位としては、クラウンの中央で作業しているか、クラウンの切端で作業しているか、それともクラウンの歯頸を作業しているかについて、クラウンと筆の位置の相対的位置関係から判断してもよい。また層Aの作業中であるか、層Bの作業中であるか、層Cの作業中であるかについて判断するようにしてもよい。このステップでは、作業部位がいずれかの特定部位(複数工程の内のいずれか)であるかについて判定する。なお、作業部位の判定にあたっては、画像データ以外にも音声入力部143によって入力した音声データに基づいて、技工士等の発言等に基づいて判定してもよい。
ステップS181における判定の結果、特定部位を作業していた場合には、部位情報を記録する(S183)。技工士がガイド情報を表示させる場合には、作業中の部位に対応した画像を表示することが望ましい。前述したように、対象判定部111が、いずれかの特定の部位を作業しているかについて判定しており、言い換えると複数工程の内のいずれかの工程であるかを判定している。そのため、このステップでは記録中の動画に部位情報を記録するようにしている。この部位情報は、撮影画像に関連付けて記録される。記録にあたって、部位情報等の工程を示す情報は、インデックス化、またはメタデータ化して記録するとよい。
一方、ステップS181における判定の結果、特定部位を作業していない場合には、作業に進展がないか否かを判定する(S185)。ここでは、画像入力部140aによって取得した動画の画像データに基づいて、作業に進展がないか否かを判定する。
ステップS185における判定の結果、作業に進展がない場合には、記録を中断する(S187)。作業が中断していることから、ステップS179で開始した動画の記録を中断する。記録を中断すると、ステップS177に戻る。ステップS177で作業を行っていることが確認できれば、ステップS179において動画の記録を再開する。
ステップS183において部位情報を記録すると、またはステップS185における判定の結果、作業に進展がある場合には、次に、終了か否かを判定する(S189)。動画撮影記録のフローを音声指示で開始している場合には、音声指示で終了する。また、これ以外の方法で動画撮影記録のフローを終了するようにしてもよい。このステップにおける判定の結果、終了でない場合には、ステップS177に戻る。
ステップS189における判定の結果、終了の場合には、ヘッダ付きファイルを生成する(S191)。ここでは、ステップ179において記録した動画の画像データや、ステップS183において記録した部位情報からなるヘッダ付きのファイルを生成する。ヘッダ付きファイルを生成すると、ステップS171に戻る。
このように、動画撮影記録フローでは、クラウン製作の作業中の動画を記録する際に、部位情報も併せて記録している(S183)。このため、技工士がガイド画像を表示させる際に、作業中の部位に応じた画像を参照することができる。
次に、図16に示すフローチャートを用いて、ステップS141(図13参照)の条件に従って表示の動作について説明する。このフローは、ウエアラブル端末100内の制御部110のCPUがメモリに記憶されたプログラムに従って、ウエアラブル端末100内の各部を制御することにより実行する。
条件に従って表示のフローに入ると、まず、作業が静止しているか否かについて判定する(S201)。技工士がガイド表示を参照する場合には、通常、表示部150を凝視していることから、作業は静止状態となる。作業が静止しているか否かは、画像入力部140aによって取得した画像データに基づいて判定する。この判定の結果、作業が静止していない場合には、待機状態となる。
ステップS201における判定の結果、作業が静止していた場合には、製作物の位置に対して道具の位置が、取得中の画像と一致するコマが動画にあるか否かを判定する(S203)。ここでは、クラウンの位置に対して、筆等の道具の位置がいずれにあるか、例えば、筆の位置が中央、切端、歯頸のいずれにあるか等を判断する。そして、データベースに記録された作業中動画の中から、判定された位置と一致するコマ(例えば、図9(d)参照)を検索する。この検索の結果、一致するコマが無い場合には、ステップS201に戻る。
ステップS203における判定の結果、一致するコマがある場合には、作業起点コマ(類推)から動画を開始する(S207)。作業起点コマは、例えば、図10のT=T10、T20、T30に相当する時刻であり、特定部位の作業を開始するよりも所定時間前、または作業道具が特定の位置関係にある時刻でのコマである。
動画の再生を開始すると、次に、終了か否かを判定する(S207)。ここでは、動画の再生が終了したか否かに基づいて判定する。この判定の結果、終了していない場合には、ステップS201に戻り、再生を続行する。
ステップS207における判定の結果、終了の場合には、このフローを終了し、元のフローに戻る。
このように、条件に従って表示のフローにおいては、特定部位と一致する動画のコマがある場合には、このコマよりも前にある作業起点コマから、動画の再生を開始するようにしている。このため、いきなり特定部位から再生されるのでは、この特定部位に至る前の準備段階から画像を確認することができ、ガイド情報として重宝できる。
次に、図17を用いて、歯科医420が情報端末300を用いて、意図するクラウンの製作者を探しだすことについて説明する。
図17(a)は、歯科医420が情報端末300の表示部350にクラウンを表示し、どのようなクラウンの色にするかを検討している様子を示す。表示部350の左側には、患者の歯を撮影した撮影画像が表示される。撮影画像の下側には、歯科医420が入力したクラウンの厚みおよび土台の色に関する情報が表示される。
表示部350の右側には、サーバ200にアクセスし、撮影画像を送信し(図11のS65参照)、データベース230に記録されている画像の中から検索された画像(図12のS91参照)、すなわち送信した撮影画像に近い画像、すなわち技工士によって製作されたクラウンの画像(実績登録画像)が表示される(図11のS71参照)。
しかし、歯科医420(または患者)が実績登録画像では満足しない場合には、撮影画像をベースに、図9(b)に示すようなシミュレーション画像を生成することができる。このシミュレーション画像をサーバ200に送信すると(図11のS69参照)、サーバ200は、シミュレーション画像に基づいて再度検索を行い(図12のS97参照)、この検索結果を送信してくる。この送信された画像が、図17(b)の表示部350の右側に実績登録画像として表示される。
クラウンのように、審美性が高く、製作に高度の技能が要求される製品では、歯科医や患者の要求に応じたものを入手するのが困難である。しかし、本実施形態のように、実績登録画像に基づいて、検索することができ、しかも、修正した画像(シミュレーション画像)によって再検索することができることから、意図に沿った製品を入手することができる。
以上、説明したように、第2実施形態においても、第1実施形態と同様、一連の作業を時間的に分割して複数の工程として撮影して記録する撮影システムを提供することができる。この撮影システムは、撮影画像に基づいて工程を検出する工程検出部(例えば、図5の対象判定部111参照)を有するようにしているので、撮影と同時に工程検出結果に基づいて、一連の作業を分割することが可能となり、上記撮影画像と上記工程を関連付けて動画撮影画像を記録することができる。このため、この撮影システムでは、作業終了後に見たい部分の動画だけを検索し、また再確認することが簡単にでき、技能伝承に役立つ。なお、撮影システム中の記録制御部が、連続して撮影した動画の一部を作業ごとに検索しやすいように各動画に作業別のタイトルを付けたり、作業別のメタデータを付けたファイル形式で記録できるようにしてもよい。
以上説明したように、本発明の各実施形態においては、製作物(例えば、クラウン)を製作するための複数の工程を撮影して記録することができる。すなわち、撮影画像に基づいて製作物の部位に応じた部位別工程を検出し(例えば、図15のS181参照)、撮影画像と部位別工程を関連付けて撮影画像を記録している(例えば、図15のS183参照)。製作物の部位に応じて撮影画像を検索することが容易となることから、クラウン等の製作物の加工箇所・進捗状況等に応じて、適切な指導を行うことができる。
また、本発明の各実施形態においては、製作物を製作するための複数の工程を撮影し(例えば、図13のS135、図15のS179参照)、撮影画像に基づいて製作物の部位に応じた部位別工程を検出し(例えば、図15のS181参照)、撮影画像と部位別工程を関連付け(例えば、図15のS183)、関連付けがなされた撮影画像を外部装置に送信し(例えば、図13のS127参照)、外部装置で検索された撮影画像を受信している(例えば、図13のS121参照)。この受信した撮影画像に基づいてガイド表示を行う(例えば、図13のS141)。
このため、本発明の各実施形態においては、製作物の部位に応じたガイド表示を行うことができ、クラウン等の製作物の加工箇所・進捗状況等に応じて、適切な指導を行うことができる。一般に複雑で高度な技能を必要とする作業は、各工程に分解した形でエビデンスを残すことが望ましい。本発明の各実施形態では、ウエアラブル端末によって、作業者の目の位置に近い画像を利用し、作業者の目視チェックの様子や、作業者目線に近い視界で手先、指先の動きを観察するので、判定が精密に出来る。もちろん、必要に応じて、外部カメラの情報を利用してもよい。工程ごとの切り分けを、それぞれの工程において行われるセッティング、指の動き、道具の持ち方などを利用して判定しているので、作業者に負担をかけることがない。複数の工程を撮影して記録する場合、撮影画像やその作業特有の音声やその他の情報に基づいて工程を検出する工程検出部を設け、この工程検出部での検出結果をインデックス化、メタデータ化しておき、上記撮影画像と上記工程を関連付けて記録することが出来る。また、検索しやすく、確認もしやすい形式(例えば、メタデータ付きの画像ファイルなど)にしておけば、様々な状況(レポート化や、ガイドとしての利用)で、作業者目線で、その肝心の部分だけを検索したり、確認したりすることが出来る画像情報が提供できる。
また、本発明の各実施形態におけるシステムは、複数の技工士の工程(画像)情報と技工士製作物画像を管理したデータベース230と、情報端末300から製作物の目標画像を取得する目標物画像取得部(検索部211)と、目標画像から、製作物画像を検索する検索部211と、さらに工程画像を取得するガイド部213とを有している。製作物画像の少なくとも2箇所の代表色情報と、当該2箇所の代表色情報の遷移情報とから、目標対象画像と、複数の技工士による模造物の出来映え画像とを比較して、技工士を選択することができる。すなわち、技工士の画像を収集する画像管理サーバを設け、歯科医がクラウン製作のために、歯の写真を送ると、クラウン製作に最適な技工士を検索することができる。評価の高い技工士に、加工技術を示す画像でサーバにアップして貰い、その画像によってガイド表示する。
なお、本発明の各実施形態においては、製作物として歯冠補綴物であるクラウンについて説明した。しかし、製作物としてはクラウンに限らず、審美性や高度の技能が要求される一品製作の物であれば適用することができる。本発明の各実施形態では、説明が容易な例として歯科技工士の作業(比較的製作物をイメージしやすく、道具や材料などが駆使される)で説明したが、これに限らず、特定の道具や材料、あるいはその基材を使いこなして作業を行う作業過程を観察、記録するための機器、装置、方法に対して広く応用が可能である。歯科技工士に限らず、美容関係から工事関係、さらには様々な検査や研究や医療分野まで、専門性の高い作業を経て得られる成果物、さらには修理、治療などの結果としての状況を得るには、審美的な面までをカバーした高度な技能が要求される。また、極めて高い属人性を持つ業務であるがゆえに、本発明の各実施形態のように、作業の進捗等に応じて、作業ごとの適切な作業、テクニックを可視化することが望ましい。つまり、技能伝承という意味でも、作業品質の確認用としても、作業の過程が把握可能な適切な観察、記録の技術が求められていた。つまり、作業を明確に可視化し、検索しやすくしておけば、その工程の再確認、エビデンスを残しやすくでき、技の伝承用のアーカイブにもできる。
また、本発明の各実施形態においては、技工士が使用するウエアラブル端末100と歯科医が使用する情報端末300をネットで結んでいた。しかし、複数の技工士がイントラネット等のネットで結び、ガイド表示のみを行うようにしてもよい。また、複数の歯科医がネットで結び、サーバに完成したクラウンの画像と、関連情報を記録しておき、技工士の検索のみを行うようにしてもよい。
また、本発明の各実施形態において、データベース230に記録する事項を種々記載したが、これらの記載以外にも、例えば、途中工程情報(例えば、3回なのか6回なのか)、材料情報、納期情報、価格情報等、さらに情報を追加し、取捨選択しても勿論かまわない。
また、本発明の実施形態においては、ウエアラブル端末100の制御部110内の対象判定部111、作業判定部112、表示制御部113、またサーバ200の制御部210内の検索部211、表示制御部212、ガイド部213、情報統制部213a、また情報端末300の制御部310内の操作判定部311、表示制御部312を、CPUとプログラムによって実現されるとしたが、これらの制御部とは別体で構成し、ハードウエア的またはソフトウエア的に実現するようにしてもよい。また、これらを、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
また、本発明の各実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10a・・・ウエアラブル端末、10b・・・ウエアラブル端末、11・・・技工所情報端末、12a・・・ウエアラブル端末、12b・・・ウエアラブル端末、13・・・技工所情報端末、14・・・サーバ、14a・・・データベース、15・・・歯科医情報端末、16・・・歯科医情報端末、17・・・ネットワーク、100・・・ウエアラブル端末、110・・・制御部、111・・・対象判定部、112・・・作業判定部、113・・・表示制御部、120・・・通信部、130・・・記録部、131・・・道具DB、132・・・作業DB、140・・・情報取得部、140a・・・画像入力部、141・・・対物レンズ、142・・・回路収納部、143・・・音声入力部、150・・・表示部、151・・・表示パネル、152・・・導光部、160・・・音声・振動出力部、170・・・つる(テンプル)、200・・・サーバ、210・・・制御部、211・・・検索部、212・・・表示制御部、213・・・ガイド部、213a・・・情報統制部、220・・・通信部、230・・・データベース、231・・・製作部形状DB、232・・・契約DB、233・・・製作DB、300・・・情報端末、310・・・制御部、311・・・操作判定部、312・・・表示制御部、320・・・通信部、330・・・記録部、331・・・患者DB、332・・・技工士DB、340・・・操作部、350・・・表示部、360・・・情報入力部、420・・・歯科医、430・・・技工士、440・・・技工士、450・・・技工士、451・・・目、500・・・クラウン、501・・・筆、502・・・パレット、503・・・絵具、504・・・把持具
Claims (9)
- 複数の工程を撮影して記録する撮影システムにおいて、
撮影画像に基づいて工程を検出する工程検出部と、
上記撮影画像と上記工程を関連付けて撮影画像を記録する記録部と、
を有することを特徴とする撮影システム。 - 上記工程で使用する第1の使用器具または材料に基づいて、作業起点に対応する上記撮影画像のコマを類推する起点画像類推部を有することを特徴とする請求項1に記載の撮影システム。
- 上記撮影画像を表示する表示部を有し、
上記表示部は、上記撮影画像のから作業起点コマを類推して表示を開始することを特徴とする請求項2に記載の撮影システム。 - 上記工程検出部は、製作物の製作時において、上記撮影画像中の第2の使用器具を画像判定することにより、上記製作物の上記部位を判定することを特徴とする請求項1に記載の撮影システム。
- 製作物を製作するための複数の工程を撮影する撮影部と、
撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出する部位別工程検出部と、
上記撮影画像と上記部位別工程を関連付ける関連付け部と、
上記関連付け部によって関連付けがなされた上記撮影画像を外部装置に送信し、上記外部装置で検索された撮影画像を受信するための通信部と、
を有することを特徴とする撮影装置。 - 上記通信部は、上記外部装置に対して、上記部位別工程検出部によって検出した部位に関する情報を送信し、上記外部装置によって検索された上記部位に関連する撮影画像を受信することを特徴とする請求項5に記載の撮影装置。
- 特定の部位についての撮影画像の検索を上記外部装置に要求した際に、上記外部装置によって上記検索された撮影画像を表示するための表示部を有することを特徴とする請求項5に記載の撮影装置。
- 製作物を製作するための複数の工程を撮影して記録する撮影方法において、
撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出し、
上記撮影画像と上記部位別工程を関連付けて撮影画像を記録する、
ことを特徴とする撮影方法。 - 製作物を製作するための複数の工程を撮影し、
撮影画像に基づいて上記製作物の部位に応じた部位別工程を検出し、
上記撮影画像と上記部位別工程を関連付け、
関連付けがなされた上記撮影画像を外部装置に送信し、上記外部装置で検索された撮影画像を受信する、
ことを特徴とする撮影方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017151775A JP2019032593A (ja) | 2017-08-04 | 2017-08-04 | 撮影システム、撮影装置、および撮影方法 |
US16/053,738 US20190045158A1 (en) | 2017-08-04 | 2018-08-02 | Imaging system, imaging device, and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017151775A JP2019032593A (ja) | 2017-08-04 | 2017-08-04 | 撮影システム、撮影装置、および撮影方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019032593A true JP2019032593A (ja) | 2019-02-28 |
Family
ID=65230692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017151775A Pending JP2019032593A (ja) | 2017-08-04 | 2017-08-04 | 撮影システム、撮影装置、および撮影方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190045158A1 (ja) |
JP (1) | JP2019032593A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020197899A (ja) * | 2019-06-03 | 2020-12-10 | 株式会社日立製作所 | 作業監視装置、及び作業監視方法 |
WO2021193136A1 (ja) * | 2020-03-26 | 2021-09-30 | 株式会社 情報システムエンジニアリング | 情報処理装置及び情報処理方法 |
JP2021157431A (ja) * | 2020-03-26 | 2021-10-07 | 株式会社 情報システムエンジニアリング | 情報処理装置及び情報処理方法 |
US11341714B2 (en) | 2018-07-31 | 2022-05-24 | Information System Engineering Inc. | Information service system and information service method |
WO2022201561A1 (ja) * | 2021-03-25 | 2022-09-29 | 株式会社島津製作所 | 分析作業管理装置および分析作業管理方法 |
US11520822B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11520823B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11651023B2 (en) | 2019-03-29 | 2023-05-16 | Information System Engineering Inc. | Information providing system |
WO2023182424A1 (ja) * | 2022-03-24 | 2023-09-28 | ダイキン工業株式会社 | 情報処理方法、コンピュータプログラム及び情報処理装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7339604B2 (ja) * | 2019-11-12 | 2023-09-06 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
KR20230026410A (ko) * | 2020-07-17 | 2023-02-24 | 필립 마코위츠 | 비디오 향상된 시간 추적 시스템 및 방법 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016075948A1 (ja) * | 2014-11-14 | 2016-05-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 再生方法、再生装置およびプログラム |
-
2017
- 2017-08-04 JP JP2017151775A patent/JP2019032593A/ja active Pending
-
2018
- 2018-08-02 US US16/053,738 patent/US20190045158A1/en not_active Abandoned
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11341714B2 (en) | 2018-07-31 | 2022-05-24 | Information System Engineering Inc. | Information service system and information service method |
US11520823B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11520822B2 (en) | 2019-03-29 | 2022-12-06 | Information System Engineering Inc. | Information providing system and information providing method |
US11934446B2 (en) | 2019-03-29 | 2024-03-19 | Information System Engineering Inc. | Information providing system |
US11651023B2 (en) | 2019-03-29 | 2023-05-16 | Information System Engineering Inc. | Information providing system |
JP7324618B2 (ja) | 2019-06-03 | 2023-08-10 | 株式会社日立製作所 | 作業監視装置、及び作業監視方法 |
WO2020246082A1 (ja) * | 2019-06-03 | 2020-12-10 | 株式会社日立製作所 | 作業監視装置、及び作業監視方法 |
JP2020197899A (ja) * | 2019-06-03 | 2020-12-10 | 株式会社日立製作所 | 作業監視装置、及び作業監視方法 |
CN113728328A (zh) * | 2020-03-26 | 2021-11-30 | 艾思益信息应用技术股份公司 | 信息处理装置和信息处理方法 |
JP2021157759A (ja) * | 2020-03-26 | 2021-10-07 | 株式会社 情報システムエンジニアリング | 情報処理プログラム |
WO2021193136A1 (ja) * | 2020-03-26 | 2021-09-30 | 株式会社 情報システムエンジニアリング | 情報処理装置及び情報処理方法 |
JP2021157431A (ja) * | 2020-03-26 | 2021-10-07 | 株式会社 情報システムエンジニアリング | 情報処理装置及び情報処理方法 |
CN113728328B (zh) * | 2020-03-26 | 2024-04-12 | 艾思益信息应用技术股份公司 | 信息处理装置和信息处理方法 |
WO2022201561A1 (ja) * | 2021-03-25 | 2022-09-29 | 株式会社島津製作所 | 分析作業管理装置および分析作業管理方法 |
WO2023182424A1 (ja) * | 2022-03-24 | 2023-09-28 | ダイキン工業株式会社 | 情報処理方法、コンピュータプログラム及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190045158A1 (en) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019032593A (ja) | 撮影システム、撮影装置、および撮影方法 | |
US20080021584A1 (en) | Methods and systems for management of information related to the appearance of an object | |
JP4921599B2 (ja) | 座標測定システムに実行可能プログラムを提供する方法、システム、および記憶媒体 | |
US20180260871A1 (en) | System and Method for Adjusting Custom Topical Agents | |
CN103562941B (zh) | 用于资源分配的控制装置 | |
WO2019090150A1 (en) | Clothing model generation and display system | |
KR20180043100A (ko) | 스마트 워치의 시계 화면 디자인 생성 방법 및 그 장치 | |
JPWO2014181380A1 (ja) | 情報処理装置およびアプリケーション実行方法 | |
CN108924082A (zh) | 一种特种作业人员实际操作考试控制方法及系统 | |
JP6709993B2 (ja) | メイクパーツ生成装置およびメイクパーツ生成方法 | |
US20210177546A1 (en) | Integrated Digital Workflow For Providing Dental Restoration | |
US10798293B2 (en) | Image pickup apparatus and image pickup method | |
CN108475159A (zh) | 在锁定屏幕上创建笔记 | |
CN107231507A (zh) | 摄像装置和摄像方法 | |
CN109643500A (zh) | 信息处理装置、信息处理方法和程序 | |
JP5978716B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2018003217A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN108182588A (zh) | 一种发型设计及修剪装置、系统及方法、设备与介质 | |
US11955025B2 (en) | Systems and methods for facilitating creating of customizable tutorials for instruments specific to a particular facility | |
US20200104861A1 (en) | Web-based system for customer relationship management and method for operating the same | |
CN109298782A (zh) | 眼动交互方法、装置及计算机可读存储介质 | |
JP2019082982A (ja) | 調理支援装置、調理情報生成装置、調理支援システム、調理支援方法、及びプログラム | |
KR20200115356A (ko) | 보철물 관리 시스템 | |
WO2005096613A1 (en) | Device and method for linking psychophysiological parameters to an image | |
CN104769933B (zh) | 红外摄影装置和红外摄影方法 |