JP6297675B2 - 3d患者インターフェイスデバイス選択システム及び方法 - Google Patents

3d患者インターフェイスデバイス選択システム及び方法 Download PDF

Info

Publication number
JP6297675B2
JP6297675B2 JP2016512274A JP2016512274A JP6297675B2 JP 6297675 B2 JP6297675 B2 JP 6297675B2 JP 2016512274 A JP2016512274 A JP 2016512274A JP 2016512274 A JP2016512274 A JP 2016512274A JP 6297675 B2 JP6297675 B2 JP 6297675B2
Authority
JP
Japan
Prior art keywords
patient
patient interface
model
interface device
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016512274A
Other languages
English (en)
Other versions
JP2016526203A5 (ja
JP2016526203A (ja
Inventor
ルウド ヴルッターズ
ルウド ヴルッターズ
ブレエ カール カタリナ バン
ブレエ カール カタリナ バン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016526203A publication Critical patent/JP2016526203A/ja
Publication of JP2016526203A5 publication Critical patent/JP2016526203A5/ja
Application granted granted Critical
Publication of JP6297675B2 publication Critical patent/JP6297675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M16/00Devices for influencing the respiratory system of patients by gas treatment, e.g. mouth-to-mouth respiration; Tracheal tubes
    • A61M16/06Respiratory or anaesthetic masks
    • A61M2016/0661Respiratory or anaesthetic masks with customised shape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Description

本発明は、患者インターフェイスデバイス選択システムに関し、特に、3Dモデルを用いた患者インターフェイスデバイス選択システムに関する。
閉塞性睡眠時無呼吸(OSA)は、世界中で多くの人々が患っている疾患である。OSAは、睡眠中の呼吸の乱れ又は停止によって特徴付けられる。OSAエピソードは、少なくとも10秒間、しばしば1〜2分間もの長時間続く睡眠中の気道の部分的な又は完全な閉塞に起因する。中程度から深刻な無呼吸を患う人々は、一晩に200〜500回もの完全な又は部分的な呼吸停止を経験し得る。絶えず睡眠が妨害されるため、患者は、心身が効率的に機能するのに必要な回復睡眠を奪われる。この睡眠障害は、高血圧、鬱病、脳卒中、不整脈、心筋梗塞、及び他の心血管疾患とも結び付けられている。更に、OSAは極度の疲労をもたらす。
非侵襲的換気療法及びプレッシャーサポート療法は、典型的には鼻又は鼻/口マスクである患者インターフェイスデバイスを患者の顔に設置して、人工呼吸器又はプレッシャーサポートシステムを患者の気道に接続し、圧力/フロー生成デバイスから患者の気道に呼吸ガスのフローを供給可能にすることを伴う。
典型的には、患者インターフェイスデバイスは、患者の皮膚に接触するクッションが取り付けられているマスクシェル又はフレームを含む。マスクシェル及びクッションは、患者の頭部を包むヘッドギアによって固定される。マスク及びヘッドギアは患者インターフェイスアセンブリを形成する。典型的なヘッドギアは、患者へのマスクの取り付けのために、マスクから伸びるフレキシブルな調節可能ストラップを含む。
典型的には、患者インターフェイスデバイスは長時間着用されるため、様々な懸念事項を考慮しなければならない。例えば、OSAの治療のためにCPAPを提供する場合、通常、患者は患者インターフェイスデバイスを眠りながら夜通し着用する。このような状況における1つの懸念事項は、患者インターフェイスデバイスが可能な限り快適なことであり、さもなければ、患者がインターフェイスデバイスの着用を避け、処方されたプレッシャーサポート療法の意義が失われる可能性がある。他の懸念事項は、不適切にフィットされた患者インターフェイスデバイスが、望ましくない漏れを生じる隙間を患者インターフェイスデバイスと患者との間に有し得ることである。したがって、患者に適切にフィットする患者インターフェイスデバイスを選択することが望ましい。
様々な種類又は様式の患者インターフェイスデバイスが利用可能である。また、患者インターフェイスデバイスの種類及び様式ごとに様々なサイズが利用可能である。したがって、患者が利用可能な異なる患者インターフェイスデバイスの総数は相当に大きくなり得る。
一般的に、適切な患者インターフェイスデバイスの選択について、介護者が患者を援助している。介護者は患者の疾患及び好みを考慮して潜在的な患者インターフェイスのリストを狭めることができる。また、介護者は患者インターフェイスデバイスの適切なサイズを推定し、又は、正確なサイズを調べるために患者にいくつかの患者インターフェイスデバイスを試着してもらうことができる。しかし、これらの方法には時間がかかり、また、不正確である。
US2008/0060652A1は、患者のマスクシステムを選択するためのシステム及び方法を開示する。これは、患者の3D輪郭を生成し、マスクシステムを少なくともこれらの輪郭に基づき選択することを含む。輪郭は、例えば並進運動可能なピンのクッション、鼻カニューレスキャンデバイス、及び/又は陰影立体視センサを使用することによって生成され得る。他の例示的な実施形態は、画像及び/又は動画を取得し、オプションで同期させることを可能にする。この場合、様々なマスクシステムの画像を重ね、マスクシステムのフィット具合を調べることができる。他の実施形態では、ユーザーはマスクデザインに対応する透明図を患者の顔の前に持ち、マスクシステムのフィット具合を調べることができる。
EP 1 116 492 A2は、ユーザーの顔の口及び鼻まわりの領域の空間的記録が取られる方法を開示する。空間的記録に基づき、呼吸マスクのシールリップ部が個人の記録に適合するよう形成される。
US2004/133604Aは、複数のデータセットを保存するデータベースを含む患者インターフェイスデバイス選択システムを開示する。複数のセットの各データセットが、独自のインターフェイスデバイス又はインターフェイスデバイスの部品と関連付けられる。計測装置等の患者データ収集システムが、患者の少なくとも1つの特徴に対応する患者データセットを取得する。処理システムは取得された患者データを複数のデータセットと比較し、比較の結果に基づき、かかる患者による使用に適した患者インターフェイスデバイス又は患者インターフェイスデバイスの部品を決定する。
したがって、患者に適した患者インターフェイスデバイスを選択するためのやり方を改良するニーズが存在する。
開示される概念の側面によれば、電子装置は、患者の顔の3Dモデル及び複数の患者インターフェイスデバイスの3Dモデルを受け取り、患者の顔の3Dモデル上の1つ以上のランドマークを決定し、患者の顔の3Dモデル及び患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するよう構成された幾何学的適合スコア決定ユニットを含む。幾何学的適合スコア決定ユニットは、更に、患者インターフェイスデバイスの3Dモデルを患者の顔の3Dモデル上の決定されたランドマークと位置合わせし、患者インターフェイスデバイスの3Dモデルを微調整することによって、患者インターフェイスデバイスのうちの1つの3Dモデルを患者の顔の3Dモデルにフィットさせるよう構成される。電子装置は、更に、患者の顔の3Dモデル及び複数の患者インターフェイスデバイスの3Dモデルから選択された患者インターフェイスデバイスの3Dモデルを表示するよう構成された表示領域、並びに、患者インターフェイスデバイス識別情報及び1つ以上の患者インターフェイスデバイスの幾何学的適合スコアに基づき計算された1つ以上の患者インターフェイスデバイスの総合適合スコアを表示し、ユーザーが表示領域に表示される患者インターフェイスデバイスを選択することを可能にするよう構成された患者インターフェイスデバイス選択領域を含むユーザーインターフェイスを生成するよう構成されたユーザーインターフェイス生成器を含む。
一実施形態によれば、電子装置は、患者情報及び/又は1つ以上の患者インターフェイスデバイスに関連付けられた追加情報を受け取り、患者情報及び/又は1つ以上の患者インターフェイスデバイスに関連付けられた追加情報に基づき1つ以上の患者インターフェイスデバイスの患者基準適合スコアを計算するよう構成された患者基準適合スコア決定ユニットと、
1つ以上の患者インターフェイスデバイスの計算された幾何学的適合スコア及び計算された患者基準適合スコアに基づき、1つ以上の患者インターフェイスデバイスの総合適合スコアを計算するよう構成された総合適合スコア決定ユニットと
を更に含み得る。
少なくとも、患者インターフェイスデバイス選択領域に表示される総合適合スコアが数値である必要はないことは明らかであろう。むしろ、これは数値的な適合スコアの指標として考えられるべきである。総合適合スコアは数値として表現されてもよいが、代替的に又は追加で、例えばカラーコーディング、ピクトグラム等を使用して表示されてもよい。また、総合適合スコアはバーの長さとして表示されてもよい。上記は幾何学的適合スコア及び患者基準適合スコアにも適用される。
開示される概念の他の側面によれば、患者インターフェイスデバイスを選択する方法は、患者の顔の3Dモデルを受け取るステップと、複数の患者インターフェイスデバイスの3Dモデルを受け取るステップと、患者の顔の3Dモデル上の1つ以上のランドマークを決定するステップと、患者の顔の3Dモデル及び患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するステップであって、患者インターフェイスデバイスの3Dモデルを患者の顔の3Dモデル上の決定されたランドマークと位置合わせし、患者インターフェイスデバイスの3Dモデルを微調整することによって患者インターフェイスデバイスのうちの1つの3Dモデルを患者の顔の3Dモデルにフィットさせるステップを含む、ステップと、1つ以上の患者インターフェイスデバイスの計算された幾何学的適合スコアに基づき1つ以上の患者インターフェイスデバイスの総合適合スコアを計算するステップと、ユーザーインターフェイスを生成するステップであって、患者の顔の3Dモデル及び患者インターフェイスデバイスのうちの選択された1つの3Dモデルを表示するよう構成された表示領域を生成するステップと、患者インターフェイスデバイス識別情報及び1つ以上の患者インターフェイスデバイスの計算された総合適合スコアを表示し、ユーザーが表示領域に表示される患者インターフェイスデバイスを選択することを可能にするよう構成された患者インターフェイスデバイス選択領域を生成するステップとを含む、ステップとを含む。
開示される概念の他の側面によれば、非一時的コンピュータ可読媒体は、コンピュータによって実行されたとき、コンピュータに上記方法を実行させる命令を含む1つ以上のプログラムを保存する。
開示される概念の他の側面によれば、複数の患者インターフェイスデバイスのうちの患者インターフェイスデバイスを選択するための方法は、患者の顔の3Dモデルを作成するステップと、複数の患者インターフェイスデバイスのそれぞれの3Dモデルを作成するステップと、患者の顔の3Dモデルを患者インターフェイスデバイス選択システムに供給するステップと、患者インターフェイスデバイスの3Dモデルのうちの1つ以上を患者インターフェイスデバイス選択システムに供給するステップと、患者インターフェイスデバイス選択システムを使用して、1つ以上の患者インターフェイスデバイスの総合適合スコアを取得し、患者インターフェイスデバイスの3Dモデルのうちの1つ以上が取り付けられた患者の顔の3Dモデルを表示するステップと、患者インターフェイスデバイスのうちの1つを選択するステップとを含み、患者インターフェイスデバイス選択システムは、患者の顔の3Dモデル及び1つ以上の患者インターフェイスデバイスの3Dモデルを受け取り、患者の顔の3Dモデル上の1つ以上のランドマークを決定し、患者の顔の3Dモデル及び患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するよう構成された幾何学的適合スコア決定ユニットであって、患者インターフェイスデバイスの3Dモデルを患者の顔の3Dモデル上の決定されたランドマークと位置合わせし、患者インターフェイスデバイスの3Dモデルを微調整することによって、患者インターフェイスデバイスのうちの1つの3Dモデルを患者の顔の3Dモデルにフィットさせるよう構成された、幾何学的適合スコア決定ユニットと、患者の顔の3Dモデル及び患者インターフェイスデバイスのうちの選択された1つの3Dモデルを表示するよう構成された表示領域、並びに、患者インターフェイスデバイス識別情報及び1つ以上の患者インターフェイスデバイスの幾何学的適合スコアに基づき計算された1つ以上の患者インターフェイスデバイスの総合適合スコアを表示し、ユーザーが表示領域に表示される患者インターフェイスデバイスを選択することを可能にするよう構成された患者インターフェイスデバイス選択領域を含むユーザーインターフェイスを生成するよう構成されたユーザーインターフェイス生成器とを含む。
図1は、開示される概念の例示的な一実施形態に係る患者インターフェイスデバイスを選択するためのシステムのダイアグラムである。 図2は、開示される概念の例示的な一実施形態に係る幾何学的適合スコアを決定する方法のフローチャートである。 図3は、開示される概念の一実施形態に係る患者基準適合スコアを決定する方法のフローチャートである。 図4は、開示される概念の一実施形態に係る問診票を含むユーザーインターフェイスの図である。 図5は、開示される概念の一実施形態に係る総合適合スコアを決定する方法のフローチャートである。 図6は、開示される概念の一実施形態に係るユーザーインターフェイス生成器のダイアグラムである。 図7は、開示される概念の例示的な一実施形態に係る3D表示領域及び患者インターフェイスデバイス選択領域を含むユーザーインターフェイスの図である。 図8は、患者インターフェイスデバイス選択領域及び詳細な適合スコア情報領域を含むユーザーインターフェイスの部分の図である。 図9は、開示される概念の例示的な一実施形態に係る透明度を調整する方法のフローチャートである。 図10は、透明度調整の実行前のユーザーインターフェイスの図である。 図11は、透明度調整の実行後のユーザーインターフェイスの図である。 図12は、開示される概念の例示的な一実施形態に係る相互作用マップを作成する方法のフローチャートである。 図13は、開示される概念の実施形態に係る表示された相互作用マップの2つの図である。 図14は、開示される概念の他の実施形態に係る患者インターフェイスデバイスを選択するためのシステムのダイアグラムである。
本明細書で使用される場合、文脈上明らかに反対が示されない限り、要素は複数を除外しない。本明細書で使用される場合、2つ以上の部分又は部品が「結合される」との記載は、部分が直接的に、又は間接的に、すなわち、結び付きが生じる限り、1つ以上の中間部品若しくは部分を介して接合され若しくは共に動作することを意味する。本明細書で使用される場合、「直接結合される」とは、2つの要素が互いに直接接触することを意味する。本明細書で使用される場合、「固定的に結合される」又は「固定される」とは、2つの部品が互いに対して一定の向きを保ちながら一体的に移動するよう結合されることを意味する。
本明細書で使用される方向的な表現、例えば、限定はされないが、頂部、底部、左、右、上方、下方、前方、後方、及びこれらの派生語は図中に示される要素の向きに関連し、請求項中に明記されない限り、請求項を限定しない。
本明細書で使用される場合、「プロセッサ」、「処理ユニット」等の用語は、データを保存、検索、及び処理可能なプログラム可能なアナログ及び/又はデジタルデバイス、コントローラ、制御回路、コンピュータ、ワークステーション、パーソナルコンピュータ、マイクロプロセッサ、マイクロコントローラ、マイクロコンピュータ、中央処理装置、メインフレームコンピュータ、ミニコンピュータ、サーバ、ネットワーク化されたプロセッサ、又は任意の適切な処理デバイス若しくは装置を意味する。
図1は、開示される概念の例示的な一実施形態に係る患者インターフェイスデバイス選択システム1のブロック図である。患者インターフェイスデバイス選択システム1は顔スキャンユニット10、患者インターフェイスデバイス情報データベース20、入力ユニット30、処理ユニット40、及び表示ユニット50を含む。
顔スキャンユニット10は、患者の顔の3Dモデルを作成及び出力するよう構成される。患者の顔の3Dモデルを作成及び出力可能なデバイスが知られている。このようなデバイスの例は、限定はされないが、光スキャナ、カメラ、及びプッシュピンアレイである。顔スキャンユニット10は処理ユニット40と通信結合され、患者の顔の3Dモデルを処理ユニット40に出力するよう構成される。開示される概念の範囲から逸脱することなく、顔スキャンユニット10及び処理ユニット40は同じロケーションにあってもよく、又は異なるロケーションにあってもよいと考えられる。また、顔スキャンユニット10及び処理ユニット40は任意の適切な手段(例えば、限定はされないが、ネットワーク、インターネット、USB等)によって通信結合されると考えられる。更に、顔スキャンユニット10は、後に処理ユニット40によって読み取り可能なリムーバブルメモリデバイス(例えば、限定はされないが、USBドライブ)に患者の顔の3Dモデルを保存し得ると考えられる。
患者インターフェイスデバイス情報データベース20は、複数の患者インターフェイスデバイスの3Dモデル、及び患者インターフェイスデバイスに関連付けられた追加情報を保存するよう構成される。患者インターフェイスデバイスの3Dモデルは任意の適切な手段によって取得され得る。例えば、限定はされないが、光スキャナ、カメラ、又はプッシュピンアレイ等のデバイスを使用して患者インターフェイスデバイスの3Dモデルが作成され得る。また、患者インターフェイスデバイスの3Dモデルはコンピュータによって生成され得ると考えられる(例えば、限定はされないが、3Dモデリングソフトウェアによって作成)。
開示される概念の一部の例示的な実施形態では、患者インターフェイスデバイスの3Dモデルは、3Dモデルの個々の部品又は部品のグループが個別に操作され得るよう構成される。例えば、患者インターフェイスデバイスの1つの例示的な3Dモデルは、クッション、支持構造、額クッションを含む可動額サポート、及びL字管を含むマスクを含む。この患者インターフェイスの3Dモデルは、例えば、可動額サポートが他の部品から独立して移動可能なよう構成され得る。
開示される概念の一部の例示的な実施形態では、患者インターフェイスデバイスの3Dモデルは、更に、患者インターフェイスデバイスの部品の特性に関する情報を含む。例えば、患者インターフェイスデバイスの3Dモデルは、限定はされないが、患者インターフェイスデバイスのクッションの弾力性等の特性に関する情報を含み得る。
患者インターフェイスデバイスに関連付けられた追加情報は、患者ファクタ(例えば、限定はされないが、患者が患う症状又は疾患の種類)に基づき各患者インターフェイスデバイスの適合度を評価する情報を含む。患者インターフェイスデバイスに関連付けられた追加情報は、更に、患者インターフェイスデバイス識別情報(例えば、限定はされないが、メーカー名、製品名、及びサイズ)を含む。
患者インターフェイスデバイス情報データベース20は処理ユニット40と通信結合し、3Dモデル及び追加情報を処理ユニット40に出力するよう構成される。開示される概念の範囲から逸脱することなく、患者インターフェイスデバイス情報データベース20及び処理ユニット40は同じロケーションにあってもよいし、又は異なるロケーションにあってもよいと考えられる。また、患者インターフェイスデバイス情報データベース20及び処理ユニット40は任意の適切な手段(例えば、限定はされないが、ネットワーク、インターネット、USB等)によって通信結合されると考えられる。一部の他の例示的な実施形態では、患者インターフェイスデバイス情報データベース20は処理ユニット40内に含まれる。更に、患者インターフェイスデバイス情報データベース20は、後に処理ユニット40によって読み取り可能なリムーバブルメモリデバイス(例えば、限定はされないが、USBドライブ)に患者インターフェイスデバイスの3Dモデルを保存し得ると考えられる。
入力ユニット30は、患者インターフェイスデバイス選択システム1のユーザーの入力を受け付けるよう構成される。入力ユニット30は、この機能を実行可能な任意の慣用的なデバイス、限定はされないが、キーボード、キーパッド、マウス、又はタッチスクリーン等であり得る。入力ユニット30は、任意の適切な手段(例えば、限定はされないが、ネットワーク、インターネット、USB等)によって処理ユニット40と通信結合される。
処理ユニット40は、顔スキャンユニット10、患者インターフェイスデバイス情報データベース20、及び入力ユニット30からの出力を受け取るよう構成される。処理ユニット40は幾何学的適合スコア決定ユニット42、患者基準適合スコア決定ユニット44、総合適合スコア決定ユニット46、及びユーザーインターフェイス生成器48を含み、それぞれが後により詳細に説明される。
処理ユニット40は、例えば、ソフトウェアモジュールの保存及び実行に適したマイクロプロセッサ及びメモリユニット等、任意の種類の処理装置であり得る。幾何学的適合スコア決定ユニット42、患者基準適合スコア決定ユニット44、総合適合スコア決定ユニット46、ユーザーインターフェイス生成器48は、それぞれ、処理ユニット40によって実行可能なソフトウェアモジュールとして具現化され得る。
幾何学的適合スコア決定ユニット42は、1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを決定するよう構成される。患者インターフェイスデバイスの幾何学的適合スコアは、患者の顔の形状と、患者インターフェイスデバイスの形状とのフィット具合の評価である。患者の顔と患者インターフェイスデバイスとの間の接触圧が高い地点又は隙間は、幾何学的適合スコアに負の影響を及ぼす。
図2は、患者インターフェイスデバイスの幾何学的適合スコアを決定するための1つの例示的なプロセスのフローチャートを示す。図2に示されるプロセスは、幾何学的適合スコア決定ユニット42によって実行され得る。図2を参照して、動作S1において、幾何学的適合スコア決定ユニット42は患者の顔の3Dモデルを受け取る。動作S2において、幾何学的適合スコア決定ユニット42は患者インターフェイスデバイスの3Dモデルを受け取る。
動作S3において、幾何学的適合スコア決定ユニット42は、患者の顔の3Dモデル上の1つ以上のランドマークを決定する。ランドマークは患者の顔上の任意の示差的な特徴であり得る(例えば、限定はされないが、鼻梁、鼻の頭、あご等)。動作S4において、患者インターフェイスデバイスの3Dモデル上の選択された点が、患者の顔の3Dモデル上の決定されたランドマークと位置合わせされる。例えば、患者インターフェイスデバイスの3Dモデル内のクッションの上部が、患者の顔の3Dモデル内の鼻梁と位置合わせされ得る。動作S5において、患者インターフェイスデバイスの3Dモデルの微調整が行われる。患者インターフェイスデバイスの3Dモデルは、患者の顔の3Dモデルにフィットするよう平行移動及び回転調整される。例えば、限定はされないが、クッションの輪郭が患者の顔の3Dモデルの輪郭と可能な限り合致するよう患者インターフェイスデバイスの3Dモデルが回転及び平行移動される。しかし、開示される概念の範囲から逸脱することなく、患者インターフェイスデバイスの3Dモデルを微調整する任意の適切な方法が採用可能であると考えられる。
動作S3〜S5は、患者インターフェイスデバイスの3Dモデルを患者の顔の3Dモデルにフィットさせるプロセスの例を表す。しかし、開示される概念の範囲から逸脱することなく、患者インターフェイスデバイスの3Dモデルを患者の顔の3Dモデルにフィットさせる任意の適切なプロセスが採用され得ると考えられる。
患者インターフェイスデバイスの3Dモデルが患者の顔に合わせられるとき、動作S6において、幾何学的適合スコア決定ユニット42は患者の顔に対する患者インターフェイスデバイスの幾何学的適合スコアを計算する。幾何学的適合スコアは患者インターフェイスデバイスの3Dモデルと患者の顔の3Dモデルとの間の相互作用に基づき計算される。例示的な一実施形態では、幾何学的適合スコアは、患者インターフェイスデバイスの3Dモデルのクッションの輪郭と患者の顔の3Dモデルの輪郭との間の差に基づき計算される。例えば、患者インターフェイスデバイスの3Dモデルが患者の顔の3Dモデルに合わせられるとき、患者インターフェイスデバイスの3Dモデルのクッションの輪郭が患者の顔の3Dモデルの輪郭上の対応する点より高い又は低い任意の点は、患者インターフェイスデバイスの幾何学的適合スコアに負の影響を及ぼす。また、幾何学的適合スコアの計算は、患者インターフェイスデバイス及び患者の顔の変形を考慮し得ると考えられる。例えば、患者インターフェイスデバイスの3Dモデルが患者の顔に合わせられるとき、患者インターフェイスデバイス及び患者の顔における変形を決定するために有限要素法が使用され得る。
動作S7において、幾何学的適合スコア決定ユニット42は、計算された適合スコアを総合適合スコア決定ユニット46に出力する。また、幾何学的適合スコア決定ユニット42が、患者の顔の3Dモデル上に取り付けられたときの患者インターフェイスデバイスの3Dモデルの配置に関する情報等の追加情報を出力し得ることも考えられる。この情報は、例えば、患者の顔の3Dモデル上に取り付けられた患者インターフェイスデバイスの3Dモデルの3D表示を作成するためにユーザーインターフェイス生成器48によって使用され得る。また、幾何学的適合スコア決定ユニット42が、患者インターフェイスデバイスの3Dモデルと患者の顔の3Dモデルとの間の相互作用のレベルに関する情報を出力し得ることも考えられる。この情報は、例えば、患者インターフェイスデバイスと患者の顔との間の相互作用マップを生成するために使用され得る。相互作用マップの生成及び表示については、後により詳細に説明する。
再び図1を参照して、患者基準適合スコア決定ユニット44は、患者インターフェイスデバイスの患者基準適合スコアを決定する。患者インターフェイスデバイスの患者基準適合スコアは、患者インターフェイスデバイスと患者の顔との間の幾何学的適合度以外の患者情報及び/又は患者インターフェイスデバイスに関連付けられた追加情報に基づき決定される。例えば、患者基準適合スコアは、患者情報若しくは患者インターフェイスデバイスに関連付けられた追加情報のみ、又はこれらの組み合わせに基づき得る。考えられる患者情報の例は、限定はされないが、患者の年齢、患者の性別、治療されるべき患者の疾患、及び他の患者情報である(例えば、限定はされないが、患者が閉所恐怖症であるか否か、患者が睡眠中に口呼吸をするか否か等)。
患者情報は、例えば、入力ユニット30を介して問診票の質問に回答することによって生成され得る。図4には、問診票のレイアウトの例を含むユーザーインターフェイス200−1の例が示されている。ユーザーインターフェイス200−1はユーザーインターフェイス生成器48によって生成される。ユーザーインターフェイス生成器48については、後により詳細に説明する。
図3を参照して、患者インターフェイスデバイスの患者基準適合スコアを決定するプロセスの例が示されている。図3に示されるプロセスは、患者基準適合スコア決定ユニット44によって実行され得る。
動作S8において、患者基準適合スコア決定ユニット44は患者情報を受け取り、動作S9において、患者基準適合スコア決定ユニット44は患者インターフェイスデバイスに関連付けられた追加情報を受け取る。
動作S10において、患者適合スコア決定ユニット44は、患者情報及び/又は患者インターフェイスデバイスに関連付けられた追加情報に基づき患者基準適合スコアを計算する。より詳細には、患者インターフェイスデバイスの患者基準適合スコアを得るために、各患者情報に対する患者インターフェイスデバイスの適合度が評価される。例えば、患者の疾患が治療にフルフェイスマスクを要することを患者情報が示し、患者インターフェイスデバイスに関連付けられた追加情報が患者インターフェイスデバイスが鼻マスクであることを示す場合、患者インターフェイスデバイスの患者基準適合スコアには負の影響がある。開示される概念の範囲から逸脱することなく、患者基準適合スコアを決定する際、患者基準適合スコア決定ユニット44が各患者情報に異なる重み付けをし得ることも考えられる。各患者情報の既定であり又はシステムのユーザーによってカスタマイズされ得ると考えられる。
動作S11において、患者基準適合スコア決定ユニット44は患者基準適合スコアを総合適合スコア決定ユニット46に出力する。
再び図1を参照して、総合適合スコア決定ユニット46は患者インターフェイスデバイスの総合適合スコアを決定する。次に図5を参照して、総合適合スコアを決定するためのプロセスが示されている。図5に示されるプロセスは総合適合スコア決定ユニット46によって実行され得る。
動作S12において、総合適合スコア決定ユニット46は患者インターフェイスデバイスの幾何学的適合スコアを幾何学的適合スコア決定ユニット42から受け取り、動作S13において、総合適合スコア決定ユニット46は患者インターフェイスデバイスの患者基準適合スコアを患者基準適合スコア決定ユニット44から受け取る。
動作S14において、総合適合スコア決定ユニット46は幾何学的適合スコア及び患者基準適合スコアに基づき患者インターフェイスデバイスの総合適合スコアを計算する。総合適合スコア決定ユニット46は、幾何学的適合スコア及び患者基準適合スコアに各々異なる重み付けをし得ると考えられる。また、重みは既定であり又はシステムのユーザーによってカスタマイズされ得るとも考えられる。
動作S14において、総合適合スコア決定ユニット46は患者インターフェイスデバイスの総合適合スコアをユーザーインターフェイス生成器48に出力する。
1つの患者インターフェイスデバイスに関して幾何学的適合スコア決定ユニット42、患者基準適合スコア決定ユニット44、及び総合適合スコア決定ユニット46の動作を説明してきたが、患者インターフェイスデバイス情報データベース20に3Dモデルが保存された1つ以上の患者インターフェイスデバイスの総合適合スコアを計算するために、かかる動作は繰り返され得ると理解されたい。
再び図1を参照して、ユーザーインターフェイス生成器48は患者インターフェイスデバイス選択システム1のためのユーザーインターフェイスを生成し、生成されたユーザーインターフェイスを表示ユニット50に出力する。ユーザーインターフェイス生成器48及びユーザーインターフェイスの動作について、以下により詳細に説明する。
図6を参照すると、ユーザーインターフェイス生成器48がより詳細に図示されており、図7には、ユーザーインターフェイス生成器48によって生成された例示的なユーザーインターフェイス200−2が図示されている。
ユーザーインターフェイス生成器48は、表示領域210を生成する表示生成ユニット110を含む。表示領域210は、患者の顔の3Dモデルを、患者の顔に取り付けられた選択された患者インターフェイスデバイスの3Dモデルと共に表示する。一部の例示的な実施形態では、表示生成ユニット110は、表示領域210内に表示された画像を操作するコマンドをサポートし得る(例えば、限定はされないが、パン、ズーム、回転等)。表示領域210は、選択された患者インターフェイスデバイスの患者の顔へのフィット具合を目視検査することを可能にし、これは、患者のための患者インターフェイスデバイスの選択を援助するために、計算された総合適合スコアと共に利用され得る。
ユーザーインターフェイス生成器48は、更に、患者インターフェイスデバイス選択ツール生成ユニット120を含む。患者インターフェイスデバイス選択ツール生成ユニット120は、ユーザーインターフェイス200−2上に患者インターフェイスデバイス選択表示領域220を生成する。患者インターフェイスデバイス選択表示領域220は、ユーザーが患者インターフェイスデバイスをソートし、表示領域210に表示される患者インターフェイスデバイスを選択することを可能にするよう構成される。また、患者インターフェイスデバイス選択表示領域220は、患者インターフェイスデバイスに対応する総合適合スコアを表示するよう構成される。
図7に示される例では、患者インターフェイスデバイス選択表示領域220は、複数の患者インターフェイスデバイスの患者インターフェイスデバイス識別情報221(例えば、限定はされないが、患者インターフェイスデバイスのメーカー及び品名)、及び患者インターフェイスデバイスの総合適合スコア222を含む。患者インターフェイスデバイス選択表示領域220は、更に、患者インターフェイスデバイスの種類(例えば、限定はされないが、鼻、フル、又はピロー)によって患者インターフェイスデバイスの表示をフィルタリングすることを可能にするよう構成された複数のフィルタリングツール223(例えば、限定はされないがタブ)を含む。開示される概念の範囲から逸脱することなく、患者インターフェイスデバイス識別情報221及び対応する総合適合スコア222の任意の適切な表示方法が採用され得ると理解されたい。また、開示される概念から逸脱することなく、患者インターフェイスデバイスの任意の適切なソート及び/又はフィルタリング方法が採用され得るとも考えられる。例えば、限定はされないが、技術者が例えば在庫が無い患者インターフェイスデバイスを非表示にし得るよう、入手可能性に基づき患者インターフェイスデバイスがフィルタリングされてもよい。
患者インターフェイスデバイス選択表示領域220は、更に、患者インターフェイスデバイスのうちの表示領域210に表示される1つを選択することを可能にするよう構成される。また、患者インターフェイスデバイス選択表示領域220は、選択された患者インターフェイスデバイスを示すよう構成される(例えば、限定はされないが、選択された患者インターフェイスデバイスの患者インターフェイスデバイス識別情報221及び対応する総合適合スコア222をハイライトすることによって)。選択された患者インターフェイスデバイスは患者の顔に取り付けられた状態で表示領域210に表示される。ユーザーインターフェイス生成器48は、最も高い総合適合スコアを有する患者インターフェイスデバイスを自動的に選択及び表示するよう構成され得る。ユーザーインターフェイス生成器48は、更に、フィルタリング動作の適用時、フィルタリング動作後に残った患者インターフェイスデバイスのうち最も高い総合適合スコアを有する患者インターフェイスデバイスを自動的に選択及び表示するよう構成され得る。更に、ユーザーインターフェイス生成器48は、フィルタリング動作を実行せずに、患者インターフェイスデバイスのサブセット又はファミリーから患者インターフェイスデバイスを自動的に選択するよう構成され得る。例えば、限定はされないが、ユーザーインターフェイス生成器48は、患者インターフェイスデバイスのサブセット又はファミリーが選択されたとき、当該サブセット又はファミリーから患者インターフェイスデバイスを選択するよう構成され得る。
ユーザーインターフェイス生成器48は、サイズ選択ユニット130を更に含む。サイズ選択ユニット130は、ユーザーインターフェイス200−2上に表示されるサイズ選択ツール230を生成する。多くの患者インターフェイスデバイスは異なるサイズ(例えば、限定はされないが、小、中、大)で提供され、これは、患者インターフェイスデバイスの患者の顔へのフィットに影響する。この開示の目的上、異なるサイズを有する異なる患者インターフェイスデバイスは、別個の患者インターフェイスデバイスと考えられる。サイズ選択ツール230は、患者インターフェイスデバイス選択システム1のユーザーがサイズを選択することを可能にするよう構成される。サイズが選択されると、選択されたサイズの患者インターフェイスデバイスが表示領域210に表示される。ユーザーインターフェイス生成器48は、デフォルトで、最も高い総合適合スコアを有するサイズを自動的に選択すると考えられる。この場合、患者インターフェイスデバイス選択システム1のユーザーは異なるサイズを手動で選択し得る。サイズ選択ツール230は、更に、選択されたサイズを示すよう構成される(例えば、限定はされないが、選択されたサイズをハイライトすることによって)。サイズ選択ツール230は、更に、各サイズに対応する総合適合スコアを表示するよう構成される。
ユーザーインターフェイス生成器48は、更に、ユーザーインターフェイス200−2上に詳細な適合スコアツール240を生成するよう構成された詳細な適合スコア生成ユニット140を含む。詳細な適合スコアツール240は、ユーザーが詳細な適合スコア領域241(図8参照)における詳細な適合スコア情報の表示をトグルすることを可能にするよう構成される。詳細な適合スコア情報は、限定はされないが、総合適合スコアの決定に使用された各基準の適合度に関する情報である。例えば、総合適合スコアの決定に患者の年齢が使用された場合、詳細な適合スコア情報は、患者の年齢に対する選択された患者インターフェイスデバイスの適合度に関する情報を含む。
詳細な適合スコア領域241を表示するために、患者インターフェイスデバイス選択システム1のユーザーは詳細な適合スコアツール240をトグルする。図8は、詳細な適合スコア領域241表示時のユーザーインターフェイス200−3を示す。詳細な適合スコア領域241は、総合適合スコアの決定に使用された複数の基準の基準識別情報242を含む。詳細な適合スコア領域241は、更に、表示された各基準の適合度を示す基準適合度情報243を含む。詳細な適合スコアツール240は、特定の患者インターフェイスデバイスが特定の総合適合スコアを取得した理由を調べるために患者インターフェイスデバイス選択システムのユーザーによって使用され得る。例えば、患者インターフェイスデバイスが患者の疾患の治療に適さないために低い総合適合スコアを取得した場合、詳細な適合スコア領域241を見ることによってこの情報を得ることができる。
再び図6を参照して、ユーザーインターフェイス生成器48は、更に、透明度調整ユニット150を含む。透明度調整ユニット150は、ユーザーインターフェイス200−2上に透明度調整ツール250を生成するよう構成される(図7)。透明度調整ツール250は、患者インターフェイスデバイス選択システム1のユーザーが患者インターフェイスデバイスの特定のコンポーネントの透明度を調整することを可能にするよう構成される。透明度調整ユニット150及び透明度調整ツール250の動作に関して、以下、図9乃至図11を参照してより詳細に説明する。
図9は、表示領域210に表示された患者インターフェイスデバイスの選択されたコンポーネントの透明度を調整するためのプロセスのフローチャートを示す。図9のプロセスは透明度調整ユニット150によって実行され得る。図10は、表示された患者インターフェイスデバイスの透明度を調整する前のユーザーインターフェイス200−4を示し、図11は、表示された患者インターフェイスデバイスの透明度を調整した後のユーザーインターフェイス200−5を示す。
図9を参照して、動作S16において、透明度調整ユニット150は透明度調整コマンドを受け取る。透明度調整コマンドは、例えば、患者インターフェイスデバイス選択システム1のユーザーが透明度調整ツール250を操作することによって生成され得る。図10及び図11に示される例示的な実施形態では、透明度調整ツール250はスライダーバーである。しかし、本発明の範囲から逸脱することなく、値の調整に適した任意のユーザーインターフェイスツールが使用され得ると考えられる(例えば、限定はされないが、ダイヤル、テキストボックス等)。
動作S17において、透明度調整ユニット150は患者インターフェイスデバイスのコンポーネントのサブセットを選択する。選択されたコンポーネントのサブセットは、透明度調整ユニット150が透明度調整を行うコンポーネントになる。図9乃至図11に示される例示的な実施形態では、患者インターフェイスデバイスのコンポーネントのサブセットは、透明度調整ユニット150によって自動的に選択される。しかし、開示される概念の範囲から逸脱することなく、透明度が調整される患者インターフェイスデバイスのコンポーネントのサブセットは、ユーザーによって手動で選択されてもよいことが理解されよう。
動作S18において、透明度調整ユニット150は、受け取られた透明度調整コマンドに基づき選択されたコンポーネントのサブセットの透明度を調整する。選択されたコンポーネントのサブセットの透明度が調整された患者インターフェイスデバイスが表示領域110に表示される。
図10及び図11を参照して、透明度調整中のユーザーインターフェイス200−4、200−5の例が示されている。図10では、透明度調整ツール250は右側にスライドされており、よって3D表示領域210に表示される患者インターフェイスデバイスのコンポーネントを不透明にする。図11では、透明度調整ツール250は左側にスライドされており、よって表示領域210において患者インターフェイスの選択されたコンポーネントのサブセットを透明にする。
図10及び図11に示される例では、患者インターフェイスデバイスの選択されたコンポーネントのサブセットは患者の皮膚に触れないコンポーネントのサブセットであり、透明度調整ユニット150によって自動的に選択される。この例で選択されたコンポーネントのサブセットが透明にされた場合、図11に示されるように、表示領域210にはクッション及び額クッションのみが表示される。患者の顔の皮膚に触れない患者インターフェイスデバイスのコンポーネントは、一般的に患者インターフェイスデバイスのフィットに影響せず、患者の皮膚に触れるコンポーネントを見づらくするおそれがある。したがって、患者の皮膚に触れない患者インターフェイスデバイスのコンポーネントを透明にすることは、患者インターフェイスデバイス選択システム1のユーザーがより容易に患者インターフェイスデバイスのフィットを目視検査することを可能にし得る。
再び図6を参照して、ユーザーインターフェイス生成器は、相互作用マップユニット160を更に含む。相互作用マップユニット160は、ユーザーインターフェイス200−2上に相互作用マップツール260を生成するよう構成される(図7参照)。相互作用マップユニット160は、更に、ユーザーインターフェイス200−2の3D表示領域210に表示される相互作用マップを生成するよう構成される。
図12を参照して、患者インターフェイスデバイスと患者の顔との間の相互作用マップを生成及び表示するためのプロセスが示されている。図12のプロセスは相互作用マップユニット160によって実行され得る。
患者インターフェイスデバイスと患者の顔との間の相互作用マップは、患者インターフェイスデバイスが患者の顔に取り付けられたとき、患者インターフェイスデバイスが患者の顔に与える患者の顔上の異なる点における接触圧の大きさを示す。
動作S19において、相互作用ユニット160は患者インターフェイスデバイスと患者の顔との間の相互作用を計算する。一部の例示的な実施形態では、患者インターフェイスデバイスと患者の顔との間の相互作用は、患者インターフェイスデバイスの3Dモデルが患者の顔の3Dモデルに取り付けられたときの患者インターフェイスデバイスの3Dモデルの輪郭と患者の顔の3Dモデルの輪郭との間の距離に基づき決定される。例えば、患者インターフェイスデバイスの3Dモデルの輪郭が患者の顔の3Dモデルの輪郭より低い、患者の顔の3Dモデルの輪郭上の点は、その点における高い相互作用レベルをもたらし、一方、患者インターフェイスデバイスの3Dモデルの輪郭が患者の顔より高い患者の顔の3Dモデルの輪郭上の点は、その点における低い相互作用レベルをもたらす。
相互作用マップユニット160が患者インターフェイスデバイスと患者の顔との間の相互作用を計算すると、動作S20において、相互作用マップユニット160は相互作用マップを生成する。一部の例示的な実施形態では、相互作用マップは患者の顔の3Dモデルと合致する3D物体である。相互作用マップは、例えば、高い相互作用レベルの領域を示すのにより暗い配色を使用し、低い相互作用レベルの領域を示すのにより明るい配色を使用する等、カラーコーディングによって患者インターフェイスデバイスの3Dモデルと患者の顔の3Dモデルとの間の相互作用を示す。一部の他の例示的な実施形態では、相互作用マップは、相互作用マップ上の点の透明値を調整することによって、例えば高い相互作用レベルの領域を示すのにより低い透明度を使用し、低い相互作用レベルの領域を示すのにより高い透明度を使用することによって患者インターフェイスデバイスの3Dモデルと患者の顔の3Dモデルとの間の相互作用を示す。他の例示的な実施形態では、異なる相互作用レベルを示すために相互作用マップ上の点のカラーコーディング及び透明値の調整の両方が使用される。ただし、相互作用マップは患者の顔上の異なる点における相互作用の量を示すのに任意の体系を使用し得ることも理解されたい(例えば、限定はされないが、相互作用マップは低い相互作用レベルの領域を示すのに緑色の配色、中程度の相互作用レベルの領域を示すのに黄色の配色、高い相互作用レベルの領域を示すのに赤色の配色を使用し得る)。
相互作用マップが生成されると、動作S21において、相互作用マップユニット160は表示領域210に表示される患者インターフェイスデバイスのコンポーネントの透明度を調整する。相互作用マップユニット160は、相互作用マップを表示する際に患者インターフェイスデバイスのコンポーネントの透明値を所定の値に調整し、相互作用マップを非表示にする際に透明度調整をリバースし得る(すなわち、患者インターフェイスデバイスのコンポーネントの透明値を透明度調整前の状態に戻す)。一部の例示的な実施形態では、相互作用マップユニット160は、患者インターフェイスデバイスのコンポーネントが全て透明になるようコンポーネントの透明度を調整する。一部の他の例示的な実施形態では、相互作用マップユニット160は、患者インターフェイスデバイスのコンポーネントが全て半透明になるようコンポーネントの透明度を調整する。一部の他の例示的な実施形態では、相互作用マップユニット160は、一部のコンポーネントは透明になり、一部の他のコンポーネントは半透明になるよう患者インターフェイスデバイスのコンポーネントの透明度を調整する。例えば、患者の顔に触れる患者インターフェイスデバイスのコンポーネントは半透明に調整され、患者の顔に触れない患者インターフェイスデバイスのコンポーネントは透明にされ得る。患者インターフェイスデバイスの透明度を調整することは、相互作用マップが表示領域210に表示されたときに相互作用マップを見やすくする。
動作S22において、相互作用マップユニット160は表示領域210に相互作用マップを表示する。より詳細には、相互作用マップは患者の顔の形状と一致し、表示領域210に表示された患者の顔の表面に合わせられ、真上に配置された3D物体であり得る。図13には、患者の顔と共に表示された相互作用マップの2つの例が示されている。表示された相互作用マップは、患者インターフェイスデバイスの患者の顔へのフィット具合を目視検査するために、特に、患者の顔により高い圧力をかける患者インターフェイスデバイスの領域を特定するために使用され得る。また、この情報は、例えば、患者インターフェイスデバイスの特定の領域が引き起こす患者の顔への圧力を開放するよう患者インターフェイスデバイスを調整し、患者の快適性を高めるために使用され得る(患者インターフェイスデバイスが調整可能なコンポーネントを有する場合)。
図14を参照して、開示される概念の他の例示的な実施形態に係る患者インターフェイスデバイス選択システム2が示されている。患者の顔と患者インターフェイスデバイスとの間の幾何学的適合スコアの正確さを高めるために、患者の顔及び患者インターフェイスデバイスの変形を考慮することが望ましい。この変形を考慮する1つのやり方は、患者の顔及び患者インターフェイスデバイスについて有限要素解析等の解析を行うことである。しかし、特に複数の患者インターフェイスデバイスのそれぞれの幾何学的適合スコアが計算される場合、この解析のための計算は膨大になり得る。これらの計算は結果の提供を遅らせ、ユーザーがほぼ即座の結果を望む場合、弊害をもたらし得る。
患者インターフェイスデバイス選択システム2はこの問題に取り組む。患者インターフェイスデバイス選択システムは第1のロケーションLOC1及び第2のロケーションLOC2に分割される。第1のロケーションLOC1は第1の処理ユニット380、幾何学的適合スコアデータベース360、及び第3の処理ユニット370を含む。第2のロケーションLOC2は顔スキャンユニット310、入力ユニット330、第2の処理ユニット340、及び表示ユニット350を含む。
幾何学的適合スコアデータベース360は、複数の顔の3Dモデル、患者インターフェイスデバイスに関連付けられた追加情報を伴う複数の患者インターフェイスデバイスの3Dモデル、及び1つ以上の顔に対する1つ以上の患者インターフェイスデバイスの事前に計算された幾何学的適合スコアを保存するよう構成される。顔の3Dモデルは、現在の患者以外の人々の顔の3Dモデルである。顔の3Dモデルは任意の適切な態様で取得され得る。
第3の処理ユニット370は、1つ以上の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを事前に計算し、結果を幾何学的適合スコアデータベース360に供給して保存するよう構成される。この限りにおいて、第3の処理ユニット370は、1つ以上の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを(例えば、限定はされないが、有限要素解析を実行することによって)事前に計算するよう構成された幾何学的適合スコア決定ユニット372を含む。この文脈において、事前に計算するとの表現は、1つ以上の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアが、現在の患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアの決定前に計算されていることを意味する。
顔スキャンユニット310は、患者の顔の3Dモデルを作成及び出力するよう構成される。患者の顔の3Dモデルを作成及び出力可能なデバイスが知られている。このようなデバイスの例は、限定はされないが、光スキャナ、カメラ、及びプッシュピンアレイを含む。顔スキャンユニット310は遠隔処理ユニット340と通信結合され、患者の顔の3Dモデルを遠隔処理ユニット340に出力するよう構成される。開示される概念の範囲から逸脱することなく、顔スキャンユニット310及び遠隔処理ユニット340は同じロケーションにあってもよく、又は異なるロケーションにあってもよいと考えられる。また、顔スキャンユニット310及び遠隔処理ユニット340は任意の適切な手段(例えば、限定はされないが、ネットワーク、インターネット、USB等)によって通信結合されると考えられる。更に、顔スキャンユニット310は、後に処理ユニット340によって読み取り可能なリムーバブルメモリデバイス(例えば、限定はされないが、USBドライブ)に患者の顔の3Dモデルを保存し得ると考えられる。
入力ユニット330は、患者インターフェイスデバイス選択システム2のユーザーの入力を受け付けるよう構成される。入力ユニット330は、この機能を実行可能な任意の慣用的なデバイス、限定はされないがキーボード、キーパッド、マウス、又はタッチスクリーン等であり得る。入力ユニット330は、任意の適切な手段(例えば、限定はされないが、ネットワーク、インターネット、USB等)によって遠隔処理ユニット340と通信結合される。
第2の処理ユニット340は、顔スキャンユニット310及び入力ユニット330からの出力を受け取るよう構成される。第2の処理ユニット340は第1の処理ユニット380と通信接続され、患者の顔の3Dモデルを第1の処理ユニット380に出力する。
第1の処理ユニット380は患者の顔の3Dモデルを受け取り、患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを決定する。この限りにおいて、第1の処理ユニット380は、幾何学的適合スコアデータベース360内に保存された1つ以上の顔に対する患者インターフェイスデバイスの事前に計算された幾何学的適合スコアを使用するマッチ発見ユニット382を含む。
開示される概念の一部の実施形態では、マッチ発見ユニット382は、患者の顔を幾何学的適合スコアデータベース360内に保存された顔と最も良く合致する顔にマッチさせるために最小二乗平均法を使用する(例えば、限定はされないが、患者の顔の3Dモデルと保存された顔の3Dモデルを使用することによって)。マッチ発見ユニット382は、マッチされた顔に対応する1つ以上の患者インターフェイスデバイスの事前に計算された幾何学的適合スコアを、患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアとして使用する。マッチ発見ユニット382は、更に、マッチされた顔と患者の顔との間の幾何学的な差に基づき事前に計算された幾何学的適合スコアを調整し得る。また、マッチ発見ユニット382は、補間を使用して複数の顔に対する患者インターフェイスデバイスの事前に計算された幾何学的適合スコアを組み合わせ、患者の顔に対する患者インターフェイスデバイスの幾何学的適合スコアを決定し得る。
一部の他の実施形態では、保存された顔の3Dモデルに主成分分析を用いて、患者インターフェイスデバイスの変形における様々な顔形状モードの効果を決定することにより、変形効果モデルが作成され得る。患者の顔の3Dモデルから、患者の顔の顔形状モードの係数を決定することができる。そして、顔形状モード係数を変形効果モデルに適用することにより、患者の顔の患者インターフェイスデバイスに対する変形効果を決定することができる。この方法の利用は、患者インターフェイスデバイスの変形をモデリングするのに必要な計算量を低減し得る。
患者の顔に対する患者インターフェイスデバイスの幾何学的適合スコアの決定に加えて、第1の処理ユニット380は第3の処理ユニット370に患者の顔の3Dモデルを更に出力し、患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するよう第3の処理ユニット370を制御してもよい。第3の処理ユニット370は計算された幾何学的適合スコアを幾何学的適合スコアデータベース360に保存し、これらは、他の患者のために使用される事前に計算された幾何学的適合スコアとして利用され得る。このように、システム2は幾何学的適合スコアデータベース360に継続的にデータを追加することができる。
第1の処理ユニット380が患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを決定すると、第1の処理ユニット380は結果を第2の処理ユニット340に出力する。
第2の処理ユニット340は、患者基準適合スコア決定ユニット344、総合適合スコア決定ユニット346、及びユーザーインターフェイス生成器348を含み、以下、これらについてより詳細に説明する。
患者基準適合スコア決定ユニット344は、患者に対する患者インターフェイスデバイスの患者基準適合スコアを決定する。患者基準適合スコア決定ユニット344は図1の患者基準適合スコア決定ユニット44と同様に動作する。しかし、図14の患者基準適合スコア決定ユニット344は、幾何学的適合スコアデータベース360から患者インターフェイスデバイスに関連付けられた追加情報を受け取り得る。
総合適合スコア決定ユニット346は、図1に示される総合適合スコア決定ユニット46と同様に動作するが、総合適合スコア決定ユニット346は、幾何学的適合スコア決定ユニット42ではなく第1の処理ユニット380から患者の顔に対する1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを受け取る。それ以外は、総合適合スコア決定ユニット346は図1に示される総合適合スコア決定ユニット46と同様に動作し、よって、このコンポーネントの更なる説明は省略される。ユーザーインターフェイス生成器348も図1に示されるユーザーインターフェイス生成器48と同様に動作し、よって、このコンポーネントの更なる説明は省略される。
第1のロケーションLOC1及び第2のロケーションLOC2は異なるロケーションであり、例えば、限定はされないが、処理センター及び介護者のオフィス等であると考えられる。しかし、開示される概念の範囲から逸脱することなく、第1のロケーションLOC1及び第2のロケーションLOC2が単一のロケーションにまとめられ得ることも考えられる。また、患者インターフェイスデバイス選択システム2がスケーラブルであることも考えられる。例えば、1つの中央第1の処理ユニット380、幾何学的適合スコアデータベース360、及び第3の処理ユニット370が多数の第2の処理ユニット340に対応し得ることが考えられる。
解析を実行して患者の顔に対する幾何学的適合スコアを始めから計算する代わりに、第1の処理ユニット380を使用して1つ以上の事前に計算された幾何学的適合スコアに基づき幾何学的フィットスコアを決定することは、患者インターフェイスデバイス選択システム2のユーザーが正確な結果を素早く受け取ることを可能にする。
第1、第2の、及び第3の処理ユニット380、340、370、340は、それぞれ、例えばソフトウェアモジュールの保存及び実行に適したマイクロプロセッサ及びメモリユニット等の任意の種類の処理装置であり得る。幾何学的適合スコア決定ユニット372、マッチ発見ユニット382、患者基準適合スコア決定ユニット344、総合適合スコア決定ユニット346、及びユーザーインターフェイス生成器348は、それぞれ、それらが存在する処理ユニットによって実行可能なソフトウェアモジュールとして具現化され得る。
本開示の概念は、例えば、限定はされないが、モバイルデバイス、モバイルコンピュータ、タブレットコンピュータ、周辺機器等の電子装置内に具現化され得る。また、本開示の概念は、有形コンピュータ可読記録媒体上のコンピュータ可読コードとして具現化され得る。コンピュータ可読記録媒体は、後にコンピュータシステムによって読み取り可能なデータを保存し得る任意のデータストレージデバイスである。コンピュータ可読記録媒体の例はROM(read-only memory)、RAM(random-access memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、及び光学データストレージデバイスを含む。
本明細書に記載される開示の概念の任意の実施形態、実施形態の組み合わせ、又は実施形態の変形形態は、例えば、限定はされないが、患者のための患者インターフェイスデバイスを選択するプロセスにおいて、介護者又は技術者によって使用され得ると考えられる。
請求項中、括弧内の如何なる参照符号も請求項を限定すると解されるべきではない。「備える」又は「含む」等の用語は、請求項内に列挙される以外の要素又はステップの存在を除外しない。複数の手段を列挙する装置クレームにおいて、それらの手段のいくつかが同一のハードウェアアイテムによって具現化されてもよい。要素は複数を除外しない。複数の手段を列挙する任意の装置クレームにおいて、それらの手段のいくつかが同一のハードウェアアイテムによって具現化されてもよい。単にいくつかの要素が互いに異なる従属請求項に記載されているからといって、これらの手段を組み合わせて使用することができないとは限らない。
現在最も実践的且つ好適と考えられる実施形態に基づき、説明のために本発明を詳細に記載してきたが、かかる詳細はもっぱらその目的のためのものであり、本発明は開示の実施形態に限定されず、反対に、添付の特許請求の範囲の趣旨及び範囲内の変形形態及び等価な構成を含むよう意図されることを理解されたい。例えば、本発明は、可能な範囲において、任意の実施形態の1つ以上の特徴が任意の他の実施形態の1つ以上の特徴と組み合わせられ得ることを考慮することを理解されたい。

Claims (14)

  1. 患者の顔の3Dモデル及び複数の患者インターフェイスデバイスの3Dモデルを受け取り、前記患者の顔の3Dモデル上の1つ以上のランドマークを決定し、前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって前記1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算する幾何学的適合スコア決定ユニットであって、当該幾何学的適合スコア決定ユニットは、前記患者インターフェイスデバイスの3Dモデルを前記患者の顔の3Dモデル上の決定された前記ランドマークと位置合わせし、前記患者インターフェイスデバイスの3Dモデルを微調整することによって、前記患者インターフェイスデバイスのうちの1つの3Dモデルを前記患者の顔の3Dモデルにフィットさせ、前記微調整は、クッションの輪郭が前記患者の顔の3Dモデルの輪郭に合うよう、前記患者インターフェイスデバイスの3Dモデルを回転及び平行移動させることを含む、幾何学的適合スコア決定ユニットと、
    前記患者の顔の3Dモデル及び前記複数の患者インターフェイスデバイスの3Dモデルから選択された患者インターフェイスデバイスの3Dモデルを表示する表示領域、並びに、患者インターフェイスデバイス識別情報及び前記1つ以上の患者インターフェイスデバイスの前記幾何学的適合スコアに基づき計算された前記1つ以上の患者インターフェイスデバイスの総合適合スコアを表示し、ユーザーが前記表示領域に表示される前記患者インターフェイスデバイスを選択することを可能にする患者インターフェイスデバイス選択領域を含むユーザーインターフェイスを生成するユーザーインターフェイス生成器と
    を含む、電子装置。
  2. 患者情報及び/又は前記1つ以上の患者インターフェイスデバイスに関連付けられた追加情報を受け取り、前記患者情報及び/又は前記1つ以上の患者インターフェイスデバイスに関連付けられた前記追加情報に基づき前記1つ以上の患者インターフェイスデバイスの患者基準適合スコアを計算する患者基準適合スコア決定ユニットと、
    前記1つ以上の患者インターフェイスデバイスの計算された前記幾何学的適合スコア及び計算された前記患者基準適合スコアに基づき、前記1つ以上の患者インターフェイスデバイスの総合適合スコアを計算する総合適合スコア決定ユニットと
    を更に含む、請求項1に記載の電子装置。
  3. 前記幾何学的適合スコア決定ユニットは、前記1つ以上の患者インターフェイスデバイスの前記幾何学的適合スコアを計算するとき、前記患者の顔及び前記患者インターフェイスデバイスの変形を考慮する、請求項1に記載の電子装置。
  4. 前記ユーザーインターフェイス生成器は、前記ユーザーが患者情報を入力するための問診票を前記ユーザーインターフェイス上に生成し、前記ユーザーインターフェイス生成器は、前記ユーザーが前記問診票を提出したことに応じて、前記表示領域及び前記患者インターフェイスデバイス選択領域を前記ユーザーインターフェイス内に生成する、請求項1に記載の電子装置。
  5. 前記ユーザーが前記問診票を提出したことに応じて、前記ユーザーインターフェイス生成器は、前記1つ以上の患者インターフェイスデバイスから最も高い総合適合スコアを有する患者インターフェイスデバイスを自動的に選択する、請求項4に記載の電子装置。
  6. 前記ユーザーインターフェイス生成器は、前記ユーザーインターフェイス内にサイズ選択ツールを生成し、前記サイズ選択ツールは、前記ユーザーが選択された前記患者インターフェイスデバイスのサイズを選択することを可能にする、請求項1に記載の電子装置。
  7. 前記サイズ選択ツールは、選択された前記患者インターフェイスデバイスの各サイズに対応する前記総合適合スコアを表示する、請求項6に記載の電子装置。
  8. 前記ユーザーインターフェイス生成器は、前記ユーザーインターフェイス内に詳細な適合スコア表示ツールを生成し、前記詳細な適合スコア表示ツールは、前記ユーザーインターフェイス上の詳細な適合スコア表示領域の表示をトグルし、
    前記詳細な適合スコア表示領域は、詳細な適合スコア情報を表示する、請求項1に記載の電子装置。
  9. 前記患者インターフェイスデバイス選択領域は、前記ユーザーインターフェイスの前記患者インターフェイスデバイス選択領域内に表示される前記1つ以上の患者インターフェイスデバイスをフィルタリングする1つ以上のフィルタリングツールを含む、請求項1に記載の電子装置。
  10. 前記ユーザーインターフェイス生成器は、相互作用マップツールを生成し、また、前記患者の顔の3Dモデルと選択された前記患者インターフェイスデバイスの3Dモデルとの間の相互作用マップを計算し、
    前記相互作用マップツールは、前記相互作用マップの表示をトグルする、請求項1に記載の電子装置。
  11. 患者インターフェイスデバイスを選択する方法であって、
    患者の顔の3Dモデルを受け取るステップと、
    複数の患者インターフェイスデバイスの3Dモデルを受け取るステップと、
    前記患者の顔の3Dモデル上の1つ以上のランドマークを決定するステップと、
    前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって前記1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するステップであって、当該幾何学的適合スコアを計算するステップは、前記患者インターフェイスデバイスの3Dモデルを前記患者の顔の3Dモデル上の決定された前記ランドマークと位置合わせし、前記患者インターフェイスデバイスの3Dモデルを微調整することによって前記患者インターフェイスデバイスのうちの1つの3Dモデルを前記患者の顔の3Dモデルにフィットさせるステップを含み、前記微調整は、クッションの輪郭が前記患者の顔の3Dモデルの輪郭に合うよう、前記患者インターフェイスデバイスの3Dモデルを回転及び平行移動させることを含むステップと、
    前記1つ以上の患者インターフェイスデバイスの計算された前記幾何学的適合スコアに基づき前記1つ以上の患者インターフェイスデバイスの総合適合スコアを計算するステップと、
    ユーザーインターフェイスを生成するステップであって、
    前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの選択された1つの3Dモデルを表示する表示領域を生成するステップと、
    患者インターフェイスデバイス識別情報及び前記1つ以上の患者インターフェイスデバイスの計算された前記総合適合スコアを表示し、ユーザーが前記表示領域に表示される前記患者インターフェイスデバイスを選択することを可能にする患者インターフェイスデバイス選択領域を生成するステップとを含む、ステップと
    を含む、方法。
  12. 患者情報及び/又は前記1つ以上の患者インターフェイスデバイスに関連付けられた追加情報を受け取るステップと、
    前記患者情報及び/又は前記1つ以上の患者インターフェイスデバイスに関連付けられた前記追加情報に基づき前記1つ以上の患者インターフェイスデバイスの患者基準適合スコアを計算するステップと、
    前記1つ以上の患者インターフェイスデバイスの計算された前記幾何学的適合スコア及び計算された前記患者基準適合スコアに基づき前記1つ以上の患者インターフェイスデバイスの前記総合適合スコアを計算するステップと
    を更に含む、請求項11に記載の方法。
  13. 複数の患者インターフェイスデバイスのうちの患者インターフェイスデバイスを選択するための方法であって、
    患者の顔の3Dモデルを作成するステップと、
    前記複数の患者インターフェイスデバイスのそれぞれの3Dモデルを作成するステップと、
    前記患者の顔の3Dモデルを患者インターフェイスデバイス選択システムに供給するステップと、
    前記患者インターフェイスデバイスの3Dモデルのうちの1つ以上を前記患者インターフェイスデバイス選択システムに供給するステップと、
    前記患者インターフェイスデバイス選択システムを使用して、前記1つ以上の患者インターフェイスデバイスの総合適合スコアを取得し、前記患者インターフェイスデバイスの3Dモデルのうちの1つ以上が取り付けられた前記患者の顔の3Dモデルを表示するステップと、
    前記患者インターフェイスデバイスのうちの1つを選択するステップと
    を含み、
    前記患者インターフェイスデバイス選択システムは、
    患者の顔の3Dモデル及び1つ以上の患者インターフェイスデバイスの3Dモデルを受け取り、前記患者の顔の3Dモデル上の1つ以上のランドマークを決定し、前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって前記1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算する幾何学的適合スコア決定ユニットであって、当該幾何学的適合スコア決定ユニットは、前記患者インターフェイスデバイスの3Dモデルを前記患者の顔の3Dモデル上の決定された前記ランドマークと位置合わせし、前記患者インターフェイスデバイスの3Dモデルを微調整することによって、前記患者インターフェイスデバイスのうちの1つの3Dモデルを前記患者の顔の3Dモデルにフィットさせ、前記微調整は、クッションの輪郭が前記患者の顔の3Dモデルの輪郭に合うよう、前記患者インターフェイスデバイスの3Dモデルを回転及び平行移動させることを含む、幾何学的適合スコア決定ユニットと、
    前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの選択された1つの3Dモデルを表示する表示領域、並びに、患者インターフェイスデバイス識別情報及び前記1つ以上の患者インターフェイスデバイスの前記幾何学的適合スコアに基づき計算された前記1つ以上の患者インターフェイスデバイスの前記総合適合スコアを表示し、ユーザーが前記表示領域に表示される前記患者インターフェイスデバイスを選択することを可能にする患者インターフェイスデバイス選択領域を含むユーザーインターフェイスを生成するユーザーインターフェイス生成器と
    を含む、方法。
  14. 患者のための患者インターフェイスデバイスを提供する方法であって、
    患者の顔の3Dモデルを受け取るステップと、
    複数の患者インターフェイスデバイスの3Dモデルを受け取るステップと、
    前記患者の顔の3Dモデル上の1つ以上のランドマークを決定するステップと、
    前記患者の顔の3Dモデル及び前記患者インターフェイスデバイスのうちの1つ以上の患者インターフェイスデバイスの3Dモデルを使用することによって前記1つ以上の患者インターフェイスデバイスの幾何学的適合スコアを計算するステップであって、当該幾何学的適合スコアを計算するステップは、前記患者インターフェイスデバイスの3Dモデルを前記患者の顔の3Dモデル上の決定された前記ランドマークと位置合わせし、前記患者インターフェイスデバイスの3Dモデルを微調整することによって前記患者インターフェイスデバイスのうちの1つの3Dモデルを前記患者の顔の3Dモデルにフィットさせるステップを含み、前記微調整は、クッションの輪郭が前記患者の顔の3Dモデルの輪郭に合うよう、前記患者インターフェイスデバイスの3Dモデルを回転及び平行移動させることを含むステップと、
    前記1つ以上の患者インターフェイスデバイスの計算された前記幾何学的適合スコアに基づき前記1つ以上の患者インターフェイスデバイスの総合適合スコアを計算するステップと、
    前記患者のための前記患者インターフェイスデバイスを製作するために、前記患者のための前記患者インターフェイスデバイスの形状を決定するために、並びに/又は所定の患者インターフェイスデバイスのセットから前記患者のための前記患者インターフェイスデバイスを選択するために前記幾何学的適合スコア及び前記総合適合スコアを使用するステップと
    を含む、方法。
JP2016512274A 2013-05-10 2014-04-25 3d患者インターフェイスデバイス選択システム及び方法 Active JP6297675B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13167311 2013-05-10
EP13167311.3 2013-05-10
EP13170960.2 2013-06-07
EP13170960 2013-06-07
PCT/EP2014/058412 WO2014180671A2 (en) 2013-05-10 2014-04-25 3-d patient interface device selection system and method

Publications (3)

Publication Number Publication Date
JP2016526203A JP2016526203A (ja) 2016-09-01
JP2016526203A5 JP2016526203A5 (ja) 2017-09-14
JP6297675B2 true JP6297675B2 (ja) 2018-03-20

Family

ID=50721761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512274A Active JP6297675B2 (ja) 2013-05-10 2014-04-25 3d患者インターフェイスデバイス選択システム及び方法

Country Status (6)

Country Link
US (1) US9881426B2 (ja)
EP (1) EP2994887B1 (ja)
JP (1) JP6297675B2 (ja)
CN (1) CN105378802B (ja)
RU (1) RU2660616C2 (ja)
WO (1) WO2014180671A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000031A1 (en) 2015-06-30 2017-01-05 Resmed Limited Mask sizing tool using a mobile application
US10452949B2 (en) * 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US10220172B2 (en) * 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
EP3393759B1 (en) * 2015-12-22 2021-11-24 Koninklijke Philips N.V. Customized mask with rigid support
WO2020245352A1 (en) * 2019-06-07 2020-12-10 Koninklijke Philips N.V. Patient sleep therapy mask selection tool
EP4048412A4 (en) * 2019-10-21 2023-09-20 The GMN Group LLC ADJUSTMENT DEVICE AND METHOD FOR PERSONAL PROTECTIVE EQUIPMENT
US11733853B1 (en) * 2022-09-28 2023-08-22 Zazzle Inc. Parametric modelling and grading

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4803981A (en) * 1981-09-22 1989-02-14 Vickery Ian M Anaesthesia mask
DE10000790C2 (de) * 2000-01-11 2003-11-13 Map Medizin Technologie Gmbh Atemmasekenanordnung und Verfahren zur Bereitstellung derselben
US7672973B2 (en) * 2002-12-18 2010-03-02 Ric Investments, Llc Patient interface device or component selecting system and method
RU2358319C2 (ru) * 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
WO2005118041A1 (en) * 2004-06-04 2005-12-15 Resmed Limited Mask fitting system and method
US20060023228A1 (en) * 2004-06-10 2006-02-02 Geng Zheng J Custom fit facial, nasal, and nostril masks
US8254637B2 (en) * 2006-07-27 2012-08-28 Resmed Limited Mask fitting system and method
US20090266362A1 (en) * 2008-04-23 2009-10-29 Mark Phillip E Rapid Production of Customized Masks
JP2010131091A (ja) * 2008-12-03 2010-06-17 Niigata Univ マスク形状決定支援システム,マスク形状決定支援方法およびマスク形状決定支援プログラム
WO2011030250A1 (en) * 2009-09-11 2011-03-17 Koninklijke Philips Electronics N.V. Patient interface device including a mechanism for manipulating the position of an internal component thereof
EP2498672B1 (en) * 2009-11-11 2017-12-13 Koninklijke Philips N.V. Mask comfort diagnostic method
CN103562934B (zh) 2011-04-28 2017-05-10 皇家飞利浦有限公司 脸部位置检测
US9982995B2 (en) 2011-05-24 2018-05-29 Koninklijke Philips N.V. 3D scanner using structured lighting
EP3241455A1 (en) * 2011-06-08 2017-11-08 Amazon Technologies, Inc. Internal measurement collection system and method of using same
CN102944371B (zh) * 2012-11-06 2016-01-06 北京航空航天大学 一种无创通气接口检测系统

Also Published As

Publication number Publication date
WO2014180671A2 (en) 2014-11-13
CN105378802B (zh) 2019-02-05
EP2994887A2 (en) 2016-03-16
RU2015152783A (ru) 2017-06-20
RU2660616C2 (ru) 2018-07-06
US9881426B2 (en) 2018-01-30
WO2014180671A3 (en) 2015-02-19
EP2994887B1 (en) 2020-08-05
US20160148437A1 (en) 2016-05-26
JP2016526203A (ja) 2016-09-01
CN105378802A (zh) 2016-03-02

Similar Documents

Publication Publication Date Title
JP6321142B2 (ja) 患者の顔に取り付けられた患者インターフェイスデバイスの3dモデリングされた視覚化
JP6373974B2 (ja) 3d患者インターフェイスデバイス選択システム及び方法
JP6321140B2 (ja) 3dモデリングに基づく患者インターフェイスデバイス選択システム及び方法
JP6297675B2 (ja) 3d患者インターフェイスデバイス選択システム及び方法
JP6464323B2 (ja) 検査対象の絶対的なサイズ寸法を推定する方法及び装置
CN113941066A (zh) 使用移动应用的面罩大小调整工具
EP2873027A2 (en) Patient interface identification system
US20230364365A1 (en) Systems and methods for user interface comfort evaluation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170803

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180221

R150 Certificate of patent or registration of utility model

Ref document number: 6297675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250