JP2017528215A - メディエイテッドリアリティ溶接のための方法およびシステム - Google Patents

メディエイテッドリアリティ溶接のための方法およびシステム Download PDF

Info

Publication number
JP2017528215A
JP2017528215A JP2017511543A JP2017511543A JP2017528215A JP 2017528215 A JP2017528215 A JP 2017528215A JP 2017511543 A JP2017511543 A JP 2017511543A JP 2017511543 A JP2017511543 A JP 2017511543A JP 2017528215 A JP2017528215 A JP 2017528215A
Authority
JP
Japan
Prior art keywords
image
block
welding
mediated reality
torch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017511543A
Other languages
English (en)
Inventor
グレッグ,リチャード・エル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prism Technologies LLC
Original Assignee
Prism Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prism Technologies LLC filed Critical Prism Technologies LLC
Publication of JP2017528215A publication Critical patent/JP2017528215A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/04Eye-masks ; Devices to be worn on the face, not intended for looking through; Eye-pads for sunbathing
    • A61F9/06Masks, shields or hoods for welders
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/042Optical devices
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/18Face protection devices
    • A42B3/22Visors
    • A42B3/225Visors with full face protection, e.g. for industrial safety applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Processing Or Creating Images (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

メディエイテッドリアリティ溶接のための方法およびシステムが提供される。その方法およびシステムは、溶接作業中のオペレータまたはマシンビジョンを改良する。

Description

関連出願の相互参照
本出願は、2014年5月7日に出願された米国特許仮出願第61/989,636号に対する優先権の恩恵を主張する、2015年5月5日に出願された米国特許出願第14/704,562号に対する優先権の恩恵を主張するものである。これらの出願の内容は、参照によって、その全体が本願明細書に組み込まれるものとする。
技術分野
本発明は、一般に、溶接作業中のオペレータビジョンを改良するためのメディエイテッドリアリティ(mediated reality)の利用法に関する。メディエイテッドリアリティは、感覚入力を増加し、意図的に減少させ、およびより一般的には、その他変更する装置による、体感の人工的変更のための全般的枠組みを指す。ウェアラブルコンピューティングは、身体携行型計算装置および知覚装置を考案し、設計し、構成し、または利用するという研究または実施である。ウェアラブルコンピュータは、衣服の下、上または中に身に着けることができ、または、それら自体が衣服であってもよい。メディエイテッドリアリティ技術は、ウェアラブルコンピューティングアプリケーションを生み出すのに用いることができる。ウェアラブルコンピューティングの有望性には、私達の生活の品質を根本的に改善する能力がある。
目の怪我は、Liberty Mutual Research Institutefor Safetyによれば、溶接の負傷の4分の1を占め、溶接工の圧倒的に最も一般的な怪我になっている。最も一般的なタイプの溶接のすべて(被覆金属アーク溶接、手棒溶接、またはガス溶接)は、潜在的に、有害な紫外線、赤外線および可視スペクトル放射を生成する。紫外光からの損傷は、非常に素早く起きる可能性がある。通常、紫外線放射は、目の角膜やレンズに吸収されると、電光性眼炎またはアークフラッシュ、すなわち、眼球腫脹、涙および痛みを特徴とする非常に痛いが永続的ではない損傷をしばしば引き起こす。
溶接ヘルメットは、固定シェードまたは可変シェードとすることができる。典型的には、固定シェードヘルメットは、同じ電流レベルで同じ種類の溶接を必要とする日常の業務に最も適しており、また、可変ヘルメットは、可変溶接タスクを伴う作業者に最も適している。ヘルメットシェードは、9から14までランク付けされた幅広い範囲の暗さのレベルがあり、14が最も暗く、それらは、ヘルメットに応じて手動または自動で調節する。業務に最も適したヘルメットを決めるために、パドルの快適かつ正確なビューイングを提供して、優れた溶接部を確実にするレンズシェードを選択しなければならない。シェード制御を利用して眼の保護を実行できる自動遮光カートリッジが溶接ヘルメットに一体化されている。
今日使用されている最新の溶接ヘルメットは、固定シェードを用いて、1937年にWilson productsによって最初に発表された。現在の自動遮光ヘルメット技術は、Mark Gordonにより、1973年12月26日に米国特許庁に提出された。“Welding Helmet with Eye Piece Control”というタイトルの米国特許第3873804号明細書がGordonに対して発行され、センサが明るい溶接アークを検出したときに自動的に遮光するLCD電子シャッタを開示した。
電子自動遮光ヘルメットの導入に伴い、溶接工は、もはや溶接の準備をした後に、首を縦に振って顔の上にヘルメットを下げる必要はなくなった。しかし、それらの電子自動遮光ヘルメットは、実際の溶接中に、着用者が、従来の固定シェード「ガラス」よりもうまく見るのに役に立っていない。溶接アークが形成されている間、「ガラス」は固定シェードであるかのように遮光されるため、主な利点は、アークが形成される前または後の瞬間がよく見える能力である。1981年、Hornellというスウェーデンの製造会社は、Gordonの特許の最初の実際の商業的実施であるSpeedglasを発表した。1981年以来、溶接中のオペレータの見る能力を向上させるのに用いられる技術における進歩は限られていた。自動遮光ヘルメットは、今日では、依然として眼の保護用の最もポピュラーな選択である。
米国特許第3873804号明細書
本発明は、好適な実施形態において、溶接作業中に視覚を変えることによるメディエイテッドリアリティ溶接のための方法およびシステムであって、溶接作業中に視覚を変える方法であって、現在の画像を取得することと、背景基準画像を決定することと、前景基準画像を決定することと、(i)前記現在の画像と前記背景基準画像とを結合すること、および、(ii)前記結合された画像に前記前景基準画像を置換することにより、前記現在の画像を処理することと、処理された現在の画像を表示することと、を含む方法およびシステムを意図している。
上記の概略の説明および以下の詳細な説明は、ともに例示的でありおよび例示的なものにすぎずおよびクレームされている本発明を制限するものではないことを理解されたい。
明細書に組み込まれて明細書の一部を構成している添付図面は、本発明の好適な実施形態を示す。それらは説明とともに、本発明の目的、効果および原理を説明するのに役に立つ。
従来の自動遮光溶接ヘルメットの前方斜視図である。 自動遮光溶接ヘルメットの内部を示す、図1Aに示された従来の自動遮光溶接ヘルメットの後方斜視図である。 従来の自動遮光溶接ヘルメットカートリッジの前方正面図である。 図2Aに示された従来の自動遮光溶接ヘルメットカートリッジの後方正面図である。 本発明によるメディエイテッドリアリティ溶接ヘルメットの前方斜視図である。 メディエイテッドリアリティ溶接ヘルメットの内部を示す、図3Aに示されたメディエイテッドリアリティ溶接ヘルメットの後方斜視図である。 本発明によるメディエイテッドリアリティ溶接ヘルメットカートリッジの前方正面図である。 図4Aに示されたメディエイテッドリアリティ溶接ヘルメットカートリッジの後方正面図である。 本発明によるメディエイテッドリアリティ溶接に用いられる例示的な溶接ビードの図である。 本発明によるメディエイテッドリアリティ溶接ヘルメットカートリッジに用いられるコンピュータハードウェアのブロック図である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを取り込み、処理し、そして表示するために行われる動作に関するフローチャートである。 図7Aに示されたフローチャートから続き、そしてそのフローチャートを完結するフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオの並列処理において行われる動作に関するフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを合成するために行われる動作のフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを合成する際に用いられる背景基準画像の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを合成する際に用いられる第一の暗画像の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオにおける背景基準画像とともに合成された第一の暗画像の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを処理する際のその後に使用するために取り込まれた、最後の光トーチおよびオペレータの手袋内の手の前景基準画像の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するための溶接パドルベクトルを生成するために行われる動作のフローチャートである。 図11Aに示されたフローチャートから続き、そしてそのフローチャートを完結するフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するための溶接パドルベクトルを計算する際に用いられる溶接パドルに適用される二値化閾値の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するための溶接パドルベクトルを計算する際に用いられる溶接パドル境界および重心の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するために用いられる例示的な溶接パドルベクトルの写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するために、溶接トーチおよび手袋内のオペレータの手を抽出するために行われる動作のフローチャートである。 図13Aに示されたフローチャートから続き、およびそのフローチャートを完結するフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するためのトーチおよび手袋内のオペレータの手の初期ベクトルを決定するために行われる動作のフローチャートである。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するのに用いられる溶接トーチおよび手袋内のオペレータの手の基準画像の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するのに用いられる溶接トーチおよび手袋内のオペレータの手の基準画像に適用される二値化閾値の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによってさらに処理するのに用いられる抽出された溶接トーチおよび手袋内のオペレータの手の写真である。 本発明の好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを構成するために行われる動作のフローチャートである。 図15Aに示されたフローチャートから続き、およびそのフローチャートを完結するフローチャートである。 本発明の好適な実施形態において、生成されたメディエイテッドリアリティ溶接のストリーミングビデオの写真である。
本発明は、メディエイテッドリアリティ溶接のための方法およびシステムに注力する。以下で議論するように、本発明の方法およびシステムは、溶接作業中のオペレータまたはマシンビジョンを改良するメディエイテッドリアリティを用いる。
図1Aは、フロントマスク1と、溶接中にオペレータの顔および眼を保護する従来のバッテリ駆動の自動遮光カートリッジCTGの前部2とを含む従来の自動遮光溶接ヘルメットHを示す。
図1Bはさらに、溶接ヘルメットHの内部3と、従来の自動遮光カートリッジCTGの後部4と、オペレータの顔とレンズの間の距離を制御する、顔のサイズ、傾斜および前/後調節を可能にする調節可能なオペレータヘッドストラップ5とを含む従来の溶接ヘルメットHを示す。
図2Aは、従来の自動遮光カートリッジCTGの前部2を示す。保護クリアレンズLは、溶接スパッタおよびスクラッチからフィルタ6を保護するために、自動遮光フィルタ6を覆っている。従来の溶接ヘルメットHは、溶接が始まると、明状態(シェード3.5)から暗状態(シェード6〜13)に自動的に変化する。従来の自動遮光カートリッジCTGは、溶接アークからの光を検出し、レンズを選択した溶接シェードに遮光するセンサを含む。従来の自動遮光カートリッジCTGは、交換可能なバッテリ(図示せず)および太陽電池7によって駆動される。バッテリは、典型的には、カートリッジの底部角部に配置される。
図2Bはさらに、従来の自動遮光カートリッジCTGの後部4を示す。従来の自動遮光カートリッジCTGの制御部は、シェードレンジスイッチ8と、溶接後の強い残留線からオペレータの眼を保護するように設計されているディレイノブ制御部9と、過剰な周辺光中でヘルメットが用いられる場合に、光感度を調節する感度ノブ10と、所望のシェードを設定するためのシェードダイアル11と、溶接前にシェード選択をプレビューするためのテストボタン12とを含む。業界標準の自動遮光カートリッジのサイズは、幅4.5インチ×高さ5.25インチである。
図3Aは、改良した溶接ヘルメットH’を示す。改良した溶接ヘルメットH’は、従来の溶接ヘルメットHの機能の多くを含んでいるが、メディエイテッドリアリティ溶接カートリッジMCTGの利用に対応するように改良されている。
改良されたヘルメットH’は、メディエイテッドリアリティ溶接カートリッジMCTGに対応するように変更されているフロントマスク1を含む。図3Aおよび図4Aにおいて、メディエイテッドリアリティ溶接カートリッジMCTGの前部13は、無色の保護カバーの背後のカメラ(またはイメージセンサ)14と、溶接中にオペレータの顔および眼を保護する自動遮光フィルタFとともに図示されている。メディエイテッドリアリティ溶接カートリッジMCTGカートリッジは、交換可能なバッテリ(図示せず)および太陽電池7によって駆動される。バッテリは、典型的には、カートリッジの底部角部に配置される。
図3Bはさらに、メディエイテッドリアリティ溶接カートリッジMCTGに対応するように改良されている改良された溶接ヘルメットH’の内部3を示す。図3Bおよび図4Bに図示されているように、メディエイテッドリアリティ溶接カートリッジMCTGの後部15は、表示スクリーン19と、ズームインボタン17またはズームアウトボタン18を用いて、表示スクリーン19に表示された、溶接されているワークピースをオペレータが見るために、カメラ(またはイメージセンサ)14の焦点を合わせるためのオペレータフォーカス制御部16とを含む。メディエイテッドリアリティ溶接カートリッジMCTGの後部15は、シェード調節、ディレイ、感度およびテストを含むカートリッジ設定にアクセスするためのオペレータ制御部20も含む。メディエイテッドリアリティ溶接カートリッジMCTGは、メディエイテッドリアリティ溶接アプリケーションソフトウェアによってプログラムされ、また、オペレータ制御部20は、メディエイテッドリアリティ溶接アプリケーションソフトウェアにアクセスするのにも用いられる。オペレータ制御部20は、「戻る」ボタン21と、「メニュー」ボタン22と、「アップ」ボタン26、「ダウン」ボタン24、「右」ボタン25、「左」ボタン27および「選択」ボタン28を含むマウス23と、「ホーム」ボタン29とを含む触覚フィードバックボタン群を有している。
図5は、本発明の好適な実施形態におけるメディエイテッドリアリティ溶接を説明するのに用いられる溶接ビード31を伴う一枚の例示的な鋼板30を示す。
図6は、メディエイテッドリアリティ溶接カートリッジMCTGに用いられるコンピュータハードウェアのブロック図である。カートリッジのハードウェアおよびソフトウェアは、リアルタイムストリーミングビデオを取り込み、処理しおよび表示し、およびオペレータ設定およびメディエイテッドリアリティ溶接アプリケーションソフトウェアを提供する。好適な実施形態においては、Texas Instruments AM335x Sitara microprocessor familyからのマイクロプロセッサ32を用いることができる。AM335xは、ARM(Advanced Risc Machines)Cortex−A8プロセッサに基づいており、および画像、グラフィック処理および周辺部が強化されている。好適な実施形態で用いられるオペレーティングシステムは、組込みLinuxバリアントである。
AM335xは、互換TFT(Thin Film Transistor)LCD(Liquid Crystal Display)コントローラまたはディスプレイに接続するための必要な内蔵機能を有している。表示スクリーン19は、WQVGA(Wide Quarter Video Graphics Array)解像度で480×272RGB(Red,Green,Blue)画素を表示可能なSharp LQ043T3DX02 LCDモジュールとすることができる。表示スクリーン19は、AM335xに接続され、およびLCDディスプレイの駆動をサポートする、AM335xからの信号33を受け取る。AM335xは、例えば、生RGBデータ(Red/5,Green/6,Blue/5)および制御信号VSYNC(Vertical Sync)、HSYNC(Horizontal Sync)、PCLK(Pixel Clock)およびイネーブル(EN)を含む信号33を出力する。
さらに、AM335xは、カメラ(またはイメージセンサ)14とインタフェースをとる必要な内蔵機能も有し、およびカメラ(またはイメージセンサ)14は、CMOSディジタルイメージセンサとすることができる。好適な実施形態で用いられているAptina Imaging社のMT9T001P12STC CMOSディジタルイメージセンサ14は、HD(High Definition)動画取り込みが可能な3メガピクセルセンサである。カメラ(またはイメージセンサ14)は、フレームサイズ、露出、ゲイン設定、電子パンニング(ズームイン、ズームアウト)およびその他のパラメータに対してプログラムすることができる。カメラ(またはイメージセンサ)14は、AM335x(マイクロプロセッサ32)の汎用メモリコントローラ(general−purpose memory controller:GPMC)機能34を用いて、取り込んだ動画のメモリ36へのDMA(Direct Memory Access)転送を、512MB DDR3L(DDR3 Low−Voltage)DRAM(Dynamic Random−Access Memory)36の例示的な方式で実行する。DDR3またはダブルデータレートタイプ3同期ダイナミックランダムアクセスメモリは、高帯域幅インタフェースを備えた最新のタイプのDRAMである。AM335xは、ストリーミングカメラビデオデータを512MB DDR3L DRAMに転送する16ビット多重化双方向アドレスおよびデータバス(GPMC/16)と、Clock(GPMC_CLK)、Address Valid/Address Latch Enable(GPMC_ADV)、Output Enable/Read Enable(GPMC_OE)、Write Enable(GPMC_WE)、Chip Select(GPMC_CS1)およびDMA Request(GPMC_DMAR)を含むGPMC制御信号とを生成する。
オペレータ制御部20の触覚フィードバックボタンと、オペレータフォーカス制御部16は、12の汎用入力/出力ライン、すなわち、GPIO/10およびGPIO/2により、ボタンの押圧がスキャンされる。ボタンが押圧されると、中断信号(INTR0)が、どのボタンが押圧されたかを判断するマイクロプロセッサ32に送られる。
組込みLinuxオペレーティングシステム、ブートローダおよびファイルシステムは、メディエイテッドリアリティアプリケーションソフトウェアとともに、2ギガバイトeMMC(embedded MultiMediaCard)メモリの例示的な方式でメモリ37に格納されている。メモリ37は、メディエイテッドリアリティアプリケーションソフトウェアの格納および実行を容易にする非一過性のコンピュータ可読媒体である。ユニバーサルシリアルバス(USB)ホストコントローラ38は、診断、メンテナンス、機能強化およびファームウェアのアップグレード用のラップトップパーソナルコンピュータ等のホストシステムとのやりとりのために設けられている。さらに、マイクロSD(micro Secure Digital:uSD)カードインタフェース39が、カートリッジに一体化され、およびメディエイテッドリアリティ溶接ビデオ、機能およびファームウェアのアップグレードを記録するためのリムーバブル不揮発性記憶を実行する。
リアルタイムストリーミングビデオアプリケーションは、計算的要求が多い。上述したように、本発明の好適な実施形態は、マイクロプロセッサ32に対して、ARMプロセッサの使用に依存している。しかし、代替的な好適な実施形態は、ARMプロセッサとともに、単一または複数のコアディジタル信号プロセッサ(DSP)を用いて、計算的に集中した画像処理動作を軽減することができる。ディジタル信号プロセッサは、そのアーキテクチャが、信号処理アプリケーションの動作上の必要性のために最適化されている専用マイクロプロセッサである。ディジタル信号処理アルゴリズムは、典型的には、大量の数学演算が一連のデータサンプルに対して、迅速におよび繰り返し実行される必要がある。(通常、オーディオセンサまたはビデオセンサからの)信号は、常にアナログからディジタルに変換されて、ディジタル的に処理された後、アナログ形式に戻して変換される。多くのDSPアプリケーションには、レイテンシに関する制約があり、すなわち、システムが機能するための待ち時間に関して制約があり、DSP動作は、ある一定時間内に完了しなければならず、遅延した(または、バッチ)処理は実行可能ではない。Texas Instruments社のC667x DSPファミリーは、代替的な好適な実施形態に利用できる型および種類のDSPの実例である。
代替的な好適な実施形態を提供するために、ARMプロセッサおよびDSPに加えて、アクセラレータSoC(system−on−chip)を、好適な実施形態の範囲内で用いることができるであろう。専用アクセラレータシステムオンチップモジュールの実施例は、特定のコーデックのコーダ・デコーダを含む。コーデックは、ディジタルデータストリームまたは信号を符号化または復号することが可能なデバイスまたはソフトウェアである。コーデックは、送信、格納または暗号化のためにデータストリームまたは信号を符号化し、または、再生または編集のためにそれを復号する。コーデックは、テレビ会議、ストリーミングメディアおよびビデオ編集アプリケーションで用いられる。メディエイテッドリアリティカートリッジに用いられるコンピュータハードウェアは、パフォーマンスおよび機能要件により、ARM、DSPおよびSoCハードウェア構成要素から成る任意の組み合わせを含むことができる。さらに、限定するものではないが、ヘッドアップディスプレイ等を含む異なる種類のカメラおよびディスプレイを、好適な実施形態において用いることができる。
図7Aおよび図7Bは、好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオを取り込み、処理しおよび表示するために行われる動作のフローチャートを対象にしている。その処理は、システム初期化、組込みLinuxのオペレーティングシステムのブート処理、およびメディエイテッドリアリティ溶接アプリケーションソフトウェアのローディングの後に、ブロック40において始まる。ブロック41において、一つ以上のビデオフレームが、カメラ(またはイメージセンサ)14によって取り込まれて、メモリ36に格納される。オペレータの頭部の動きを調節するために、ブロック42において、ビデオ安定化アルゴリズムが用いられる。ビデオ安定性アルゴリズムは、ブロックマッチングまたはオプティカルフローを用いて、メモリ36内のフレームを処理し、その結果がメモリに格納される。
ブロック43では、オペレータの溶接トーチおよび手袋がフレーム内に現れたか否か(図10D)を判断するために、シンプルモーション検出アルゴリズムが用いられる。ブロック44において、トーチおよび手袋がフレーム内に現れたと判断されると、プロセスは、ブロック44からブロック45へ継続し、RGBのトーチおよび手袋前景画像を、溶接されている材料の背景画像から抽出するアルゴリズムが実行される。抽出されたRGBのトーチおよび手袋基準画像(図14C)は、ブロック47において、さらなる処理のためにバッファに格納される。ブロック44において、トーチおよび手袋画像が検出されない(すなわち、トーチおよび手袋がフレーム内に現れていない)と判断された場合には、プロセスは、ブロック44からブロック46へ継続し、ブロック54での合成アルゴリズムに用いるために、現在の画像が、RGB基準画像(図10A)としてバッファに格納される。
ブロック48では輝度が算出される。輝度計算は、溶接アークがヘルメットシェードを明から暗にいつ移行させたか(図10Aおよび図10B)を判断するのに用いられる。ブロック50において、輝度が閾値よりも小さいと判断された場合には、ブロック41〜ブロック50が繰り返される。そうでない場合、ブロック50において、輝度が閾値よりも大きいと判断された場合には、ブロック51において、ビデオフレームの取り込みが継続される。
ブロック48でのソフトウェアにおける輝度計算を用いて、ブロック51〜ブロック57を実行する代わりに、溶接ヘルメットシェードが明から暗に移行したときに、ハードウェアの中断を用いることができる。溶接ヘルメット自動遮光フィルタは、明から暗への移行を検出して、ブロック51〜ブロック57を実行する中断ルーチンを実行する中断を実現できる現存の光検出回路を有している。
議論したように、ブロック50において、輝度が閾値よりも大きいと判断された場合、ブロック51において、ビデオフレームの取り込みが継続される。一つ以上のビデオフレームがカメラ(またはイメージセンサ)14によって取り込まれて、ブロック51でメモリ36に格納される。オペレータの頭部の動きを調節するために、ブロック53において、(ブロックマッチングまたはオプティカルフロー等の)ビデオ安定化アルゴリズムが用いられて、メモリ36内のフレームが処理されて、その結果がメモリに格納される。
現時点で取り込まれたRGBフレーム(図10B)は、ブロック54において、RGB合成基準画像(図10A)と合成される。合成のプロセスは、二つの画像を一緒に一体化できるようにする。メディエイテッドリアリティ溶接の場合、RGB基準画像は、合成のために用いられる。この基準画像は、溶接アークがシェードを暗くする前にカメラ(またはイメージセンサ)14によって取り込まれたトーチおよび手袋がない最新の既知の明画像(図10A)である。一旦シェードが暗くなると、カメラ(またはイメージセンサ)14は、暗画像(図10B)をフレーム毎に取り込み、それらの暗画像を明基準画像と合成する。その結果、それらの暗画像がオペレータに対して表示スクリーン19上に、溶接作業中のオペレータの可視性を大幅に向上させる溶接アーク前の明画像として表示されるということになる。この時点で、明画像(図10C)には、トーチおよび手袋がない(図10D)。現在の暗画像(図10B)の溶接パドルに対して二値マスクを用いることにより、溶接パドルの重心(図12B)は、ブロック55において、抽出されたトーチおよび手袋基準画像(図14B、図14C)からのトーチ先端の中心を、ブロック56において現在の合成画像(図10C)に戻して加えることができる位置を与えることになるベクトル(wx,wy)を計算するのに用いることができる。その結果生じる画像(図16)は、ブロック57において、オペレータに対して表示スクリーン19に表示され、プロセスは、ブロック50において、スタートを繰り返す。
リアルタイムストリーミングビデオアプリケーションは、計算的に集中している。図8は、ブロック57において、結果として生じる画像の表示を容易にするために、溶接ベクトル計算55、画像合成54およびトーチおよび手袋挿入56の動作を並行して実行することによる、図7Aおよび図7Bの代替的な好適な実施形態を示す。これは、オペレーティングシステムによって先制的に予定される複数の独立したプロセスを用いるソフトウェアで実現することができ、または、単一または複数のコアARMプロセッサを用いる、または、専用の単一または複数のコアDSPに対する画像処理動作を軽減するハードウェアで実施することができる。ソフトウェアと専用ハードウェアの組み合わせを用いることもできる。可能であれば、リアルタイムビデオストリームの並行処理は、システムパフォーマンスを向上させ、および溶接中にオペレータが潜在的に経験する表示スクリーン19に関するレイテンシを低減するであろう。さらに、基準画像を伴う何らかの前処理動作も、表示スクリーン19に関するレイテンシを低減するのに好ましい。
溶接トーチおよび手袋のビデオフレームへの導入(図10D)前に、現在の暗画像(図10B)と、最後の明基準画像(図10A)とを合成する詳細な動作が図9に示されている。合成とは、多くの場合、それらすべての要素が同じシーンの一部であるという錯覚を作り出すために、別々のソースからの視覚要素を単一の画像に組合せることである。カメラ(またはイメージセンサ)14によって取り込まれたビデオフレームは、「明」フレームと「暗」フレームに分類することができる。「明」フレームは、溶接作業を始めるために、オペレータによってトーチが起動される前に、溶接ヘルメット自動遮光フィルタによって見られる画像である。「暗」フレームは、溶接作業を始めるために、オペレータによってトーチが起動された後に、自動遮光フィルタによって見られる画像である。「暗」フレーム(図10B)を合成して、溶接作業中に、それらが「明」フレームとして見えるようにして、オペレータの視覚環境を大幅に改善するために、基準背景画像(図10A)が選択される。各「暗」フレームは、基準画像(図10C)と合成されて、さらなる処理のために保存される。
選択された特定の基準画像は、溶接トーチおよびオペレータの手袋が、次のフレーム内に姿を見せ始める前の利用可能な最後の明画像(図10A)である。ブロック46およびブロック47で格納されたフレームのバッファは、基準画像のリアルタイム選択を実現できるように、トーチおよび手袋の存在を検出するために検査される。一旦トーチが起動されると、保存されている合成基準画像(図10A)と、トーチおよび手袋の基準画像(図10D)が、リアルタイムストリーミングビデオ処理に用いられる。「明」から「暗」への移行に対して、自動遮光センサによって中断が生じる中断駆動アプローチは、トーチおよび手袋を含む最後の「明」画像を差し引くであろう中断ハンドラと呼ぶことができる。
図9において、ブロック58において、合成プロセスが始まり、そして、ブロック59において、現在の暗画像B(図10B)が取得される。ブロック60は、現在の画像B(図10B)中とブロック61からの基準画像F(図10A)中の両方の各RGB画素を読み取ることによって始まる。ブロック62は、(ブロック63において、メモリに格納されている)合成アルファ値αと、等式C=(1−α)B+αFとを用いて、画素単位での合成を実行する。合成された画素Cは、ブロック64において、メモリに格納される。ブロック65において、現在のRGB画像において、より多くの画素を処理する必要があると判断された場合、プロセスはブロック60で継続し、そうでない場合は、合成された画像(図10C)は、ブロック66において、さらなる処理のために保存される。図9の合成プロセスは、次のフレームを合成する必要があるまで、ブロック67で終了する。
図11A、図11Bおよび図11Cは、好適な実施形態において、メディエイテッドリアリティ溶接のストリーミングビデオによるさらなる処理のために、溶接パドルベクトルを生成するために行われる動作のフローチャートを開示している。合成されたビデオは、オペレータのために、視覚的溶接経験の光度を著しく強化しているが、溶接トーチおよび手袋等の詳細は、大部分が欠けている。また、溶接パドル自体は、以前からそうであるように、画像の最も明るい部分である。最後の「明るい」トーチおよび手袋画像(図10D)は、合成されたビデオに戻して追加するのに用いることができる唯一の残りの「明画像」であるため、トーチおよび手袋は、この画像から抽出して、溶接パドルとともに移動させる必要がある。明るい溶接パドルは、二値閾値を各フレームに対して用いて、その溶接パドルを分離し、その後、結果として生じる画像領域の数学的特性を測定して、溶接パドル中心のxおよびy座標を判断するために重心を計算することによって、有利に利用することができる。
重心は、その領域の質量の幾何学的中心を明確にするベクトルである。重心の第一の要素は、質量の中心の水平座標(またはx座標)であり、第二の要素は、質量の中心の垂直座標(またはy座標)であることに留意する。重心の他のすべの要素は、寸法の順になっている。重心は、各フレームに対して計算されて、溶接パドルの運動のx−yベクトルを構成するのに用いられる。このベクトルは、後に、トーチおよび手袋を溶接パドルとともに動かすことを可能にするために、移動する画像上のトーチおよび手袋画像中に戻して追加するのに用いられる。この操作の結果を、図12A、図12Bおよび図12Cに示す。
また、溶接パドル面積を測定することにより、溶接品質に関するオペレータへのフィードバックを改善することが可能である。オペレータに対して表示される有用な情報は、1)溶接速度、2)溶け込み、3)溶接温度および4)トーチ先端から材料までの距離を含んでもよい。これらの上述したファクタのすべては、溶接品質に大きな影響を及ぼす。
図11Aにおいて、溶接パドルベクトルの計算は、ブロック68において始まる。現在のRGBの暗画像(図10B)が、ブロック69において、メモリ36から読み出され、RGBの暗画像(図10B)が、ブロック70において、グレースケール画像に変換される。画像は、アルゴリズムによるより速い処理を可能にするために、グレースケールに変換される。RGB画像をグレースケールに変換する場合、各画素に対してRGB値が利用され、当該画素の輝度を反映する単一の値が生成される。このような一つのアプローチは、各チャネルからの寄与、すなわち、(R+G+B)/3を利用することである。しかし、認識される輝度は、多くの場合、緑色成分によって占められているため、別のより「人間向きの」方法は、加重平均、すなわち、0.3R+0.59G+0.11Bを利用することである。画像は、二値に変換されることになっているため(すなわち、各画素は、黒か白のいずれかになる)、数式(R+G+B)/3を利用することができる。各RGB画素は、ブロック70においてグレースケール画素に変換される際、そのグレースケール画像は、ブロック71において、メモリ36に格納される。ブロック72において、変換すべきより多くの画素がRGB画像中にある72と判断された場合、処理はブロック70において継続し、そうでない場合は、RGBからグレースケールへの変換が完了している。
グレースケールへの変換後、画像は、次にグレースケールから二値に変換する必要があり、ブロック74で始まる。画像を二値に変換することは、多くの場合、さらに処理するために関心のある画像の部分である関心領域(Region of Interest:ROI)を見つけるために用いられる。その意図は二値であり、すなわち、「はい、この画素は関心がある」または「いいえ、この画素は関心がない」である。この変換は、ブロブを検出する際に有用であり、計算の複雑性を低減する。ブロック74において、各グレースケール画素値(0〜255)は、メモリに含まれている、ブロック73からの閾値と比較される。ブロック74において、そのグレースケール画素値が閾値よりも大きいと判断された場合、ブロック76において、現在の画素が0(黒)に設定され、そうでない場合は、ブロック75において、現在の画素は、255(白)に設定される。変換の結果は、ブロック77において、すべてのグレースケール画素が、ブロック78において、二値画素に変換されるまで、画素毎に格納される。
次の数学的演算は、ブロック80において、結果として生じる二値画像に対して実行される。一旦、画像を二値に変換することによって、領域境界が検出されると、境界によって分かれていない領域を測定することが有用である。境界によって分かれていない画素の任意のセットは、接続されていると呼ばれる。接続された画素の各最大領域は、画像をセグメント化する接続構成要素から成るセットを有する接続構成要素と呼ばれる。溶接パドルは、典型的には、最大の接続構成要素を生じるため、ブロック81において、結果として生じる二値画像中の接続構成要素を判断するというケースは、真っすぐ進む可能性がある。検出は、ブロック82において、各接続構成要素の面積を測定することによって実現することができる。しかし、処理を速めるために、アルゴリズムは、閾値を用いて、一定数の画素を構成要素中に有する構成要素をさらに測定し、または無視する。そして、その動作は、ブロック83において、二値画像からより小さなオブジェクトを取り除くことにより、二値画像中の溶接パドルを迅速に識別する。そのプロセスは、ブロック84において、二値画像中のすべの画素が検査されるまで継続する。この時点で、重心は、ブロック85において、溶接パドルに対して計算される。重心とは、形状のすべての箇所の算術平均位置を計算することによる二次元領域の幾何学的中心である。図12Aは、二値画像と、検出された溶接パドルの結果として生じる領域と、溶接パドルの中間部の中心とを示す。図12Bは、溶接パドルの領域と、処理された画像に重ねられた対応する重心とを示す。現在の溶接パドルの重心(wx,wy)は、ブロック86において、さらなる処理のためにメモリ36に格納され、計算アルゴリズムは、ブロック87において、次の画像が処理されるまでに完了している。例示目的のために、図12Cは、図5に示すシンプルな溶接作業の場合の溶接ベクトルをプロットしている。好適な実施形態のリアルタイムストリーミングビデオアプリケーションにおいて、各ベクトル計算は、それが後の処理動作において行われる際に、それ自体に対して用いられる。
図13A、図13Bおよび図13Cは、最後の「明るい」トーチおよび手袋画像から溶接トーチおよび手袋を抽出している。図10Dは、合成されたビデオに戻して追加するのに用いることができる唯一の残りの「明画像」である。溶接トーチおよび手袋は、以下のプロセス、すなわち、1)i)トーチおよび手袋(図10D)が次のフレームに導入される前の最後の背景基準画像(図10A)を用いて、前景画像から背景画像を取り去り、その後、ii)最後の「明るい」トーチおよび手袋画像を取り去る(図14A)プロセス、2)取り去った画像を二値閾値化して、トーチおよび手袋の抽出のためのマスクを生成する(図14B)プロセス、および3)RGBのトーチおよび手袋画像を抽出するプロセスを用いて抽出される。その結果を図14Cに示す。重心は、結果として生じる画像に対して計算される。この初期の重心(ix,iy)は、トーチおよび手袋を利用して、それを溶接パドルベクトル(wx,wy)に沿って移動させて、メディエイテッドリアリティ溶接のストリーミングビデオ(図16)を生成するのに必要な計算に用いられることになる。
図13Aでは、ブロック88で始まり、ブロック91において、RGBのトーチおよび手袋基準画像(図10D)がメモリ36から読み出され、そして、RGBのトーチおよび手袋基準画像(図10D)は、ブロック90で既に説明したように、グレースケール画像に変換される。その結果は、ブロック89において、前景(fg)画像としてメモリ36に戻して格納される。合成RGB基準画像(図10A)は、ブロック95において、メモリ36から読み出され、ブロック94において、グレースケール画像に変換され、ブロック93において、メモリ36に格納される。背景(bg)画像を引いた前景(fg)画像の絶対値が、ブロック92で計算され(図14A)、ブロック97において、さらなる処理のためにトーチおよび手袋を抽出する。抽出された画像は、ブロック98において、閾値をメモリ36から読み出して、ブロック97において、グレースケール画像中の画素を比較することによって二値画像に変換される(図14B)。グレースケール画素が閾値よりも大きい場合、ブロック99において、その画素は白に設定され、そうでない場合、その画素は、ブロック96において、黒に設定される。その結果は、ブロック101において、すべてのグレースケール画素が二値画素に変換されるまで、ブロック100において、二値マスクとして画素毎に格納される。変換が完了すると、処理は図13Bに続き、そうでない場合は、処理はブロック97で継続される。
次に、図13Bにおいて、ブロック104からのトーチおよび手袋のRGB基準画像(図10D)がメモリ36から読み出されて、ブロック103によって取得され、ブロック106からのトーチおよび手袋の二値マスク(図14B)がメモリ36から読み出され、ブロック105によって取得される。RGBのトーチおよび手袋を抽出するために、二値マスクが、メモリ36から読み出され、ブロック109によって取得される。次いで、ブロック108において、抽出されたRGBのトーチおよび手袋が白色背景上に配置され始め、各RGBおよびマスク画素は、行と列毎に(r,c)処理される。ブロック108において、二値マスク内の現在の画素が白であると判断された場合、ブロック107において、RGB画像からの対応する画素が、抽出された画像中に配置され、そうでない場合、ブロック110において、RGB画像中の画素は白に設定される。そして、処理された各画素は、ブロック111において格納され、また、ブロック112において、RGB画像中により多くの画素があると判断された場合、ブロック108において処理が継続し、そうでない場合は、ブロック113におけるアルゴリズム終了時において、これ以上、処理する必要がある画素がなくなる。図13Aおよび図13Bのアルゴリズムの結果は、図14Cの抽出されたトーチおよび手袋のRGB画像を生じる。
後の利用のために、抽出した画像を用意する際の最後の動作は、重心を用いて、溶接トーチの先端の位置を計算することである。図13Cのアルゴリズムは、重心を判断するために、一度、実行される。図13Cにおいて、動作114〜動作121は、既に説明されている図11Bの動作80〜動作85と同様である。抽出されたトーチおよび手袋画像の初期重心(ix,iy)は、ブロック122において格納され、処理は、ブロック123において終了する。例示目的のため、重心は、図14A〜図14Cに重ねられている。同じ結果を実現するために、動画インペインティング、テクスチャ合成またはマッティング等の方法を先行のアルゴリズム(図13A、図13B)に用いることができることは、当業者には正しく認識されるであろう。
リアルタイムメディエイテッドリアリティ溶接ストリーミングビデオを生成する際に用いられる動作を図15Aおよび図15Bに示す。図15Aにおいて、ブロック124で始まり、ブロック127からの、抽出されたRGBのトーチおよび手袋画像(x)と、ブロック125からの初期重心(ix,iy)とがメモリ36から読み出されて、ブロック126によって取得される。ブロック129からの現在の溶接パドルベクトル(wx,wy)が、メモリ36から読み出されて、ブロック128によって取得される。ブロック137からの現在の画像(CI)は、メモリ36から読み出され、ブロック128によって取得される。トーチおよび手袋を、現在の合成フレーム(CI)上のどこに配置すべきかを判断する、x−y座標(bx,by)値が、ブロック130で計算される。ブロック130における計算は、初期x−yトーチおよび手袋ベクトルから、現在の合成フレームのx−y溶接パドルベクトルを引く、すなわち、bx=wx−ixおよびby=wy−iyとなる。これらのベクトルは、現在の合成フレーム(CI)に挿入できるように、トーチおよび手袋画像を調整する必要がある。抽出されたトーチおよび手袋画像の列調整がブロック131で始まる。ブロック131において、bxがゼロに等しいと判断された場合、その列は、処理131が必要なく、トーチおよび手袋画像の列調整が完了して、処理は図15Bに続く。ブロック131において、bxがゼロに等しくないと判断された場合には、列は調整する必要がある。調整の種類は、ブロック132で決定される。ブロック132において、bxがゼロよりも小さいと判断された場合、bxの画素の列は、ブロック133において、前方左のトーチおよび手袋基準画像xから引かれ、bxの白画素の列は、ブロック134において、前方右の画像xに追加されて、調整されたトーチおよび手袋画像サイズが、確実に元の画像サイズと同じになる。そうでない場合は、ブロック135において、bxの白画素の列が前方左の画像xに追加され、ブロック136において、bxの画素の列が、前方右のトーチおよび手袋基準画像xから引かれる。そして、トーチおよび手袋画像の列調整が完了して、処理が図15Bに続く。
図15Bでは、ブロック138において、抽出されたトーチおよび手袋画像の行調整が始まる。ブロック138において、byがゼロに等しいと判断された場合、その行は処理する必要がなく、トーチおよび手袋画像の行調整が完了して、処理がブロック144に続く。ブロック138において、byがゼロに等しくないと判断された場合には、その行は、調整する必要がある。調整の種類は、ブロック139において決定される。ブロック139において、byがゼロよりも小さいと判断された場合、byの白画素の行は、ブロック140において、画像xの底部に追加され、byの画素の行は、ブロック141において、トーチおよび手袋基準画像xの上部から引かれる。そうでない場合は、ブロック142において、byの白画素の行が、画像xの上部に追加され、byの画素の行は、ブロック143において、トーチおよび手袋基準画像xの底部から引かれる。そして、トーチおよび手袋画像の行調整が完了して、処理がブロック144に続く。
調整されたトーチおよび手袋のRGB画像は、現在の合成画像(ci)上に戻して配置され、ブロック144において始まる。両画像(x,ci)の画素は、行(r)および列(c)によって読み出される。ブロック144において、調整されたトーチおよび手袋画像xの現在の画素が白画素ではないと判断された場合、トーチ手袋画像からの画素は、ブロック145において、数式ci(r,c)=x(r,c)を用いて、現在の合成画像(ci)と置換され、結果として生じる画素rは、ブロック146において、メモリ36に格納される。そうでない場合は、ブロック144において、調整されたトーチおよび手袋画像xの現在の画素が白画素であると判断されると、画素置換は必要なく、ブロック146において、現在の合成画素ciがメモリ36に格納される。ブロック147において、処理すべき画素がさらにあると判断された場合、アルゴリズムは、ブロック144で継続し、そうでない場合は、ブロック148において、メディエイテッドリアリティビデオフレームが、オペレータに対して表示スクリーン19に表示され、プロセスは、ブロック149で終了し、および次の合成画像フレーム(CI)を待つ。同じ結果を実現するために、動画インペインティング、テクスチャ合成またはマッティング等の方法を先行のアルゴリズム(図15A、図15B)に用いることができることは、当業者には正しく認識されるであろう。
図7A、図7B、図8、図9、図11A、図11B、図13A、図13B、図13C、図15Aおよび図15Bは、ストリーミングビデオをフレーム単位で表示するために、各カメラ(またはイメージセンサ)フレームに対してリアルタイムで実行される。
異なる実施形態の種々の要素は、本発明から逸脱することなく、置換可能に用いることができる。さらに、当業者には、本発明のその他の実施形態は、本願明細書に開示されている本発明の明細および実施に関する考察から明白であろう。明細および実施例は例示にすぎないと見なされ、本発明の真の範囲および趣旨は、以下のクレームによって示されていることが意図されている。

Claims (3)

  1. 溶接作業中に視覚を変える方法であって、
    現在の画像を取得することと、
    背景基準画像を決定することと、
    前景基準画像を決定することと、
    前記現在の画像と前記背景基準画像とを結合すること、および、前記結合された画像に前記前景基準画像を置換することにより、前記現在の画像を処理することと、
    処理された現在の画像を表示することと、
    を含む方法。
  2. マスクと、前記マスクに取り付けられたメディエイテッドリアリティ(mediated reality)溶接カートリッジを備え、
    前記メディエイテッドリアリティ溶接カートリッジは、イメージセンサおよび表示スクリーンを含み、かつ、前記イメージセンサから現在の画像を取得し、背景基準画像を決定し、前景基準画像を決定し、
    前記現在の画像と前記背景基準画像とを結合することによって前記現在の画像を処理し、前記結合された画像に前記前景基準画像を置換し、処理された画像を前記表示スクリーンに表示するように構成されている溶接ヘルメット。
  3. 溶接ヘルメットとともに用いるメディエイテッドリアリティ溶接カートリッジであって、
    イメージセンサと、
    表示スクリーンと、
    プロセッサと、
    非一過性のコンピュータ可読媒体の形態のメモリと、
    前記メモリに格納されるコンピュータソフトウェアプログラムと、を備え、
    前記コンピュータソフトウェアプログラムは、前記プロセッサを用いて実行される場合に、前記メディエイテッドリアリティ溶接カートリッジが、前記イメージセンサから現在の画像を取得し、背景基準画像を決定し、前景基準画像を決定し、前記現在の画像と前記背景基準画像とを結合することによって前記現在の画像を処理し、前記結合された画像に前記前景基準画像を置換し、処理された画像を前記表示スクリーンに表示することを可能にする、メディエイテッドリアリティ溶接カートリッジ。
JP2017511543A 2014-05-07 2015-05-06 メディエイテッドリアリティ溶接のための方法およびシステム Pending JP2017528215A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461989636P 2014-05-07 2014-05-07
US61/989,636 2014-05-07
US14/704,562 US20150320601A1 (en) 2014-05-07 2015-05-05 Method and system for mediated reality welding
US14/704,562 2015-05-05
PCT/US2015/029338 WO2015171675A1 (en) 2014-05-07 2015-05-06 Method and system for mediated reality welding

Publications (1)

Publication Number Publication Date
JP2017528215A true JP2017528215A (ja) 2017-09-28

Family

ID=54366828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511543A Pending JP2017528215A (ja) 2014-05-07 2015-05-06 メディエイテッドリアリティ溶接のための方法およびシステム

Country Status (5)

Country Link
US (1) US20150320601A1 (ja)
EP (1) EP3139876A4 (ja)
JP (1) JP2017528215A (ja)
CN (1) CN106687081A (ja)
WO (1) WO2015171675A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10251786B2 (en) * 2013-11-21 2019-04-09 Optrel Holding AG Method and apparatus for controlling opening of an auto-darkening filter in an eye protection device
WO2016083258A1 (en) * 2014-11-27 2016-06-02 Nuovo Pignone Srl Welding assistance device with a welding mask having a velocity sensor
US9826013B2 (en) 2015-03-19 2017-11-21 Action Streamer, LLC Method and apparatus for an interchangeable wireless media streaming device
US9560100B1 (en) * 2015-03-19 2017-01-31 Action Streamer, LLC Method and system for stabilizing and streaming first person perspective video
MX2018008461A (es) * 2016-01-08 2018-11-09 Illinois Tool Works Sistemas y metodos para proporcionar capacitacion en soldadura.
WO2017120491A1 (en) 2016-01-08 2017-07-13 Illinois Tool Works Inc. Systems and methods to provide weld training
US11051984B2 (en) * 2016-10-13 2021-07-06 Otex Protective, Inc. Ventilation unit and controller device
US11129749B2 (en) * 2018-01-15 2021-09-28 Walter Surface Technologies Incorporated Integrated helmet controls
USD918483S1 (en) 2018-10-26 2021-05-04 3M Innovative Properties Co. User interface for a welding helmet
US11521512B2 (en) 2019-02-19 2022-12-06 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11450233B2 (en) 2019-02-19 2022-09-20 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11322037B2 (en) 2019-11-25 2022-05-03 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
US11721231B2 (en) 2019-11-25 2023-08-08 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
IT202000013351A1 (it) * 2020-06-05 2021-12-05 Eps Systems Srl Apparato e metodo di lavorazione ad arco voltaico

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2775894B1 (fr) * 1998-03-12 2000-06-23 Soudure Autogene Francaise Casque de soudage a vision dans l'infrarouge
SE515709C2 (sv) * 2000-02-11 2001-10-01 Nekp Sweden Ab Skyddsanordning vid metallsvetsning eller - skärning
TWI376930B (en) * 2006-09-04 2012-11-11 Via Tech Inc Scenario simulation system and method for a multimedia device
KR101264935B1 (ko) * 2006-10-23 2013-05-15 현대중공업 주식회사 이미지영상을 이용한 용접부재의 용접라인 위치검출방법
US8502866B2 (en) * 2008-03-14 2013-08-06 Illinois Tool Works Inc. Video recording device for a welder's helmet
US20120180180A1 (en) * 2010-12-16 2012-07-19 Mann Steve Seeing aid or other sensory aid or interface for activities such as electric arc welding
US9073138B2 (en) * 2011-05-16 2015-07-07 Lincoln Global, Inc. Dual-spectrum digital imaging welding helmet
US20130301918A1 (en) * 2012-05-08 2013-11-14 Videostir Ltd. System, platform, application and method for automated video foreground and/or background replacement
CN202821820U (zh) * 2012-07-17 2013-03-27 广东电网公司东莞供电局 数字化防炫目电焊防护眼罩

Also Published As

Publication number Publication date
US20150320601A1 (en) 2015-11-12
EP3139876A1 (en) 2017-03-15
WO2015171675A1 (en) 2015-11-12
EP3139876A4 (en) 2018-03-07
CN106687081A (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
JP2017528215A (ja) メディエイテッドリアリティ溶接のための方法およびシステム
US11394876B2 (en) Assist for orienting a camera at different zoom levels
RU2649773C2 (ru) Управление камерой посредством функции распознавания лица
US20190102956A1 (en) Information processing apparatus, information processing method, and program
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
CN107844190B (zh) 基于虚拟现实vr设备的图像展示方法及装置
JP2013153376A (ja) 画像処理装置、画像処理方法および記録媒体
EP3316568B1 (en) Digital photographing device and operation method therefor
TW201817220A (zh) 顯示方法及其系統與電腦可讀取記錄媒體
WO2016095429A1 (zh) 一种移动终端屏幕截图方法及装置
KR102204212B1 (ko) 실감형 콘텐츠 제공 장치 및 방법
US20140204083A1 (en) Systems and methods for real-time distortion processing
JP2018037859A5 (ja)
US10438402B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
WO2019000534A1 (zh) 终端设备及显示方法
US10867368B1 (en) Foveated image capture for power efficient video see-through
RU2768013C2 (ru) Способ и устройство для предоставления информации пользователю, наблюдающему мультивидовое содержание
US8971636B2 (en) Image creating device, image creating method and recording medium
US10785470B2 (en) Image processing apparatus, image processing method, and image processing system
US20180205891A1 (en) Multi-camera dynamic imaging systems and methods of capturing dynamic images
JP2015184701A (ja) 画像処理装置、画像処理方法及びプログラム
JP2016092467A5 (ja)
US20180205928A1 (en) Multi-camera stereoscopic dynamic imaging systems and methods of capturing stereoscopic dynamic images
US20230388475A1 (en) Image processing apparatus and storage medium
JP2024052840A (ja) 表示方法、及び、映像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170802