JP2019536129A - 光学的画像データを取得して患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラム - Google Patents

光学的画像データを取得して患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2019536129A
JP2019536129A JP2019517226A JP2019517226A JP2019536129A JP 2019536129 A JP2019536129 A JP 2019536129A JP 2019517226 A JP2019517226 A JP 2019517226A JP 2019517226 A JP2019517226 A JP 2019517226A JP 2019536129 A JP2019536129 A JP 2019536129A
Authority
JP
Japan
Prior art keywords
patient table
posture
image data
side partition
table device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019517226A
Other languages
English (en)
Other versions
JP6775680B2 (ja
Inventor
フランツ フランク
フランツ フランク
シュリヒティング シュテファン
シュリヒティング シュテファン
ディーゼル ヤスパー
ディーゼル ヤスパー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Draegerwerkag & CoKgaa
Draegerwerk AG and Co KGaA
Original Assignee
Draegerwerkag & CoKgaa
Draegerwerk AG and Co KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Draegerwerkag & CoKgaa, Draegerwerk AG and Co KGaA filed Critical Draegerwerkag & CoKgaa
Publication of JP2019536129A publication Critical patent/JP2019536129A/ja
Application granted granted Critical
Publication of JP6775680B2 publication Critical patent/JP6775680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Emergency Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Geometry (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Alarm Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Image Analysis (AREA)

Abstract

実施例は、患者台装置(20)の光学的な画像データを取得するための装置(10)、方法およびコンピュータプログラムを実現するものである。本装置(10)は、患者台装置(100)の光学的な画像データを取得して、前記画像データに基づいて前記患者台装置(100)の少なくとも1つの側部仕切り部(110)の姿勢を特定するように構成されている。本装置(10)は、最初に画像データに基づいて患者台装置(100)の少なくとも1つの部分セグメント(120)の姿勢を特定し、少なくとも1つの部分セグメント(120)の姿勢に基づいて患者台装置(100)の少なくとも1つの側部仕切り部(110)の姿勢を特定するように構成されている。

Description

実施例は、患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラムに関し、とりわけ、光学的画像データに基づいて患者用ベッドの側部仕切り部の姿勢を自動的に特定するための思想に関するが、これは排他的ではない。
従来技術では、患者用ベッド上の患者の姿勢、体位ないしは寝姿勢または位置/ポーズを評価する種々のコンセプトが公知であり、これは例えば、回復プロセスまたは治癒プロセスに悪影響を与え得る、または健康上のリスクとなり得る不都合な体勢が存在することによって動機付けられたものである。これには、ある程度の期間にわたる位置または体位の保持も含み得る。患者用ベッドに拘束された患者については、当該患者の体位またはポーズは、使用されている患者用ベッドの設定またはコンフィギュレーションに依存する。かかる患者はしばしば、危険なまたは誤った体位を回避するために適切なモニタリング、記録および警報メカニズムがなされている状況にあり、例えばかかる患者のための収容部、ステーションまたは病室内にいることが多い。その一部の例は、看護を受ける生活のための設備、介護設備、自宅介護スペース、老人ホーム、病院および集中治療ステーションである。
ここでは、患者用の台装置に取り付けられている、例えばベッド柵、保護柵、仕切り部等の側部仕切り部、例えば患者の転落または落下を防止するために使用される側部仕切り部等があれば、これも重要な役割を果たす。
介護分野では、自宅または病院等の適切な設備で患者に提供される調整可能またはコンフィギュレーション可能な患者用または介護用ベッドが存在する。入手可能な患者用ベッドはたいてい、現在のコンフィギュレーションについての情報を提供することができず、ないしは、そのために製造者固有または自己のプロトコルを使用する。落下および挟み込みの防止は、医療看護において高い関心が寄せられている。この種の事故を特に起こしやすい人は、例えばアルツハイマー等の疾患を患い、身体障害を持ち、または強い薬の影響下にあることが多い。とりわけ集中治療ステーションでは、錯乱状態(「Durchgangssyndrom」)にある患者の無協調の、無意識から意識的な自己防衛的行動が生じ、これによって、元々重症である患者の患者台装置(PLV)からの落下が何回も繰り返される。これは、重傷から死に至るまでの深刻な結果を生じ得る。
集中治療ステーションの他、患者は病院内、老人ホーム、心療施設または他の介護設備内にいる。介護員は、事故のリスクを低減する種々の措置をとり得る。これらの措置には特に、患者の常時モニタリングおよび正確な評価、環境安全化、ならびに例えばPLVに取り付けられるベッド柵およびその代替手段等の種々の補助手段が含まれる。
以下の文献において他の背景情報を発見することができる:
・Besl, P. J. (1992), “Method for registration of 3-D shapes”, In Robotics-DL tentative (第586〜606頁),
・Fischler, M. A. (1981), “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography”, Communications of the ACM, 第381〜395頁,
・Hartman, F. (2011), “Robotersteuerung durch Gesten“, Masterarbeit Universitaet zu Luebeck,
・Kong, T., & Rosenfeld, A. (1996), “Topological Algorithms for Digital Image Processing”, Elsevier Science, Inc.,
・Shapiro, L., & Stockman, G. (2001), “Computer Vision”, Prentice-Hall,
・Bron, C., & Kerbosch, J. (1973), “Algorithm 457: finding all cliques of an undirected graph, Communications of the ACM” , 第575〜577頁,
・Canny, J. (1986), “A Computational Approach to Edge Detection”, IEEE Transactions on Pattern Analysis and Machine Intelligence,
・Capezuti, E., Wagner, L., & Brush, B. (2007), “Consequences of an intervention to reduce restrictive side rail use in nursing homes”, Journal of the American Geriatrics Society, 第334〜341頁,
・Dalal, N., & Triggs, B. (2005), “Histograms of Oriented Gradients for Human Detection”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition,
・Duda, R., & Hart, P. E. (1972), “Use of the Hough Transformation to Detect Lines and Curves in Pictures”, Comm. ACM, 第11〜15頁,
・Hartman, F. (2011),“Robotersteuerung durch Gesten“, Universitaet Luebeck,
・Jolliffe, I. T. (2002), “Principal Component Analysis”, Springer,
・Soille, P. (1999), “Morphological Image Analysis: Principles and Applications”, Springer-Verlag,
・Talerico, K. A., & Capezuti, E. (2001), “Myths and Facts About Side Rails: Despite ongoing debates about safety and efficacy, side rails are still a standard component of care in many hospitals, so how do you determine their safe use?”, AJN The American Journal of Nursing, 第43〜48頁、および
・Viola, P., & Jones, M. (2001), “Rapid object detection using a boosted cascade of simple features”, CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION 2001.
よって、ベッドコンフィギュレーションを識別するための改善された思想を創作する必要がある。この要請は、添付の独立請求項に記載の装置、方法およびコンピュータプログラムの実施例によって達成される。
多くの実施例は例えば、例えば記録時に支援するため、またはベッド柵の使用時に表示される他のモニタリングシステムを作動するため、ベッド柵の設定(ひいてはその使用状態)を自動的に識別することができる。これは、患者台装置の光学的画像データを取得し、さらに、患者台装置の少なくとも1つの部分セグメントの姿勢を特定し、これに基づいて患者台装置の側部仕切り部の姿勢を特定することによって解決される。側部仕切り部の姿勢から、患者の状況を推定することができる。例えば、側部仕切り部が十分な高さに設定されていない場合は、安全上のリスクがあると推定することができる。
本願で開示する解決手段が有利である理由は、特に、少なくとも1つの部分セグメントおよび側部仕切り部の姿勢から、患者に係るリスクを推定できるからである。換言すると本発明の実施例は、患者台装置の光学的に取得された画像データを解析ないしは処理して、これから、少なくとも1つの部分セグメントおよび側部仕切り部の姿勢を推定するとの思想に基づく。実施例は、患者台装置の光学的画像データを取得して、当該画像データに基づいて患者台装置の少なくとも1つの側部仕切り部の姿勢を特定するための装置を実現する。本装置は、最初に画像データに基づいて患者台装置の少なくとも1つの部分セグメントの姿勢を特定するように構成されている。本装置はさらに、少なくとも1つの部分セグメントの姿勢に基づいて患者台装置の少なくとも1つの側部仕切り部の姿勢を特定するように構成されている。実施例は、画像データから側部仕切り部の姿勢を特定することによって、患者台装置のコンフィギュレーションの観察、安全モニタリングまたは記録の改善された思想を実現することができる。多くの実施例では、本装置はさらに、少なくとも1つの側部仕切り部の姿勢についての情報を出力するためのインタフェースを備えることができる。例えば、このようにして側部仕切り部の姿勢についての情報を、例えば介護員に対する表示のため、さらなるデータ処理のため、または自動モニタリングのために調達することができる。
数例の実施例では、本装置はさらに、患者台装置の光学的画像データを取得するための取得装置も備えることができる。取得装置は、3次元の点群を画像データとして取得するように構成された1つまたは複数のセンサを備えることができる。その限りにおいては、画像データを患者台装置に依存せずに取得することができるので、任意の患者台装置を使用することができる。さらに、患者台装置に取り付けられたセンサ系を省略することもできる。これにより、患者台装置における追加の構成要素または配線によって患者または人員にかかる制限を回避することができる。
他の実施例では、本装置はさらに、患者台装置の少なくとも1つの部分セグメントの姿勢を画像データに基づいて特定するための特定装置を備えることもできる。特定装置はさらに、患者台装置の少なくとも1つの部分セグメントの姿勢に基づいて患者台装置の横たわり面の大きさおよび位置を特定するように構成することができる。実施例はこのようにして、横たわり面についての情報、例えば横たわり面の向きまたはコンフィギュレーション等を、さらなる検討において共に考慮することができる。
例えば特定装置は、さらに患者台装置の2つの長辺を特定し、これらの長辺に基づいて画像データから、患者台装置の少なくとも1つの側部仕切り部に属しない画素を少なくとも部分的に除外するように構成することができる。実施例はこのようにして、効果的なデータ処理を可能にすることができる。特定装置はさらに、画像データをさらに患者台装置の長辺の画素に制限するように構成することもできる。このようにして、例えば2つの長辺について別個に側部仕切り部の検出を行うことができ、これによって検出を容易にすることができる。特定装置はさらに、画像データを患者台装置の側部平面上に投影して投影像を得るように構成することもできる。その際には特定装置は、投影像内において物体検出を用いて側部仕切り部候補を特定するように構成することができる。実施例はこのようにして、画像データを解析するための効果的なアルゴリズムを実現することができる。他の実施例では特定装置は、側部仕切り部候補を評価し、評価された側部仕切り部候補に基づいて少なくとも1つの側部仕切り部の姿勢を特定するように構成することができる。この評価によって側部仕切り部の検出の信頼性を測定して、検討において考慮することができる。
数例の実施例では特定装置は、少なくとも1つの側部仕切り部の姿勢に基づいて患者台装置のコンフィギュレーションについての安全情報を特定するように構成することができる。安全情報はその後、患者に係る状況を判断するために使用することができる。例えば特定装置は、記憶装置を用いて安全情報を記録するように、かつ/または表示装置を用いて安全情報を出力するように構成することができる。実施例はこのようにして、安全情報を調達することができる。少なくとも多くの実施例では、特定装置は安全情報に基づいて、患者台装置のコンフィギュレーションが安全レベルを下回る場合に警報情報を出力するように構成することもできる。その際には、介護員に警報を発することができる。例えば、患者台装置の安全レベルは、少なくとも1つの側部仕切り部に対する少なくとも1つの部分セグメントの相対姿勢に基づくことができる。側部仕切り部に対する少なくとも1つの部分セグメントの相対姿勢ないしはこれに対して平行に配置された横たわり面の相対姿勢は、例えば、側部での滑出、転落または落下のリスクを表す指標となり得る。安全レベルは、患者台装置の特定されたコンフィギュレーションの場合に患者台装置から患者が落下するリスクがどの程度高いかを表す尺度となり得る。これによって、介護員に対する早期警報または記録を形成することができる。安全レベルは例えば、少なくとも1つの部分セグメントにわたる横たわり面より上方の側部仕切り部の平均高さの度合いとなり得る。
他の実施例では特定装置は、患者台装置の少なくとも2つの部分セグメントの姿勢、例えば4つの部分セグメントの姿勢も特定するように構成することもできる。実施例はこのようにして、複雑な患者台装置の場合でも種々のコンフィギュレーションについての安全情報を調達することができる。
実施例はさらに、患者台装置の光学的画像データを取得して、当該画像データに基づいて患者台装置の少なくとも1つの側方仕切り部の姿勢を特定するための方法を実現する。本方法は、画像データに基づいて患者台装置の少なくとも1つの部分セグメントの姿勢を特定することを含む。本方法はさらに、少なくとも1つの部分セグメントの姿勢に基づいて患者台装置の少なくとも1つの側部仕切り部の姿勢を特定することを含む。
他の一実施例は、プログラムコードを有するプログラムまたはコンピュータプログラムであって、当該プログラムコードは、コンピュータ上、プロセッサ上、またはプログラミング可能なハードウェア構成要素上で実行されるときに本願に記載の方法を実施するためのものであるプログラムまたはコンピュータプログラムである。
以下、図面に示されている実施例に基づいて、他の有利な実施形態を詳細に説明するが、一般に、実施例は全体的に図面の実施例に限定されない。
患者台装置の光学的画像データを取得して少なくとも1つの側方仕切り部の姿勢を特定するための装置の一実施例を示す図である。 一実施例における4つのセグメントを有する患者台装置としての患者用ベッドを示す図である。 4つの側部仕切り部またはベッド柵を有する患者台装置としての患者用ベッドを示す図である。 数例の実施例における3次元画像データの特定についての概観図である。 病室内の一実施例を示す図である。 一実施例における側部仕切り部の姿勢の特定についてのフローチャートである。 一実施例における仕切りフレームを含む取得された画像データを示す図である。 一実施例における仕切りフレームを含む取得された画像データと、特定された部分セグメントとを示す図である。 一実施例における側部仕切り部の特定についてのフローチャートである。 一実施例における2つのヒストグラムである。 一実施例における2つのヒストグラムを、発見された直線(左側)および平均的な直線(右側)と共に示す図である。 一実施例における、側部平面に基づいて得られた仕切りフレームを示す図である。 患者台装置の横たわり面の向きが既知である一実施例の投影像を示す図である。 一実施例における物体検出器によって同定された側部仕切り部を示す図である。 一実施例におけるベッド柵を備えた患者用ベッドの可能なコンフィギュレーションを示す図である。 一実施例における可能な評価を示す図である。 安全情報を特定するための方法の複数の実施例を示す図である。 側部平面を特定するための方法の一実施例のフローチャートのブロック回路図である。
以下、数例の実施例を示す添付の図面を参照して、種々の実施例を詳細に説明する。
数例の実施例のみを示す添付の図面の以下の説明では、同一の符号は同一または同等の構成要素を示し得る。さらに、複数の構成要素および物について包括的な符号を使用していることがあり、かかる符号は1つの実施例または図面中に複数回現れるが、これについては、1つまたは複数の構成に関して共同で説明する。明細書から特段の事情が明示的または暗黙的に明らかでない限りは、同一または包括的な符号によって表される構成要素または物は、1つ、複数または全ての構成において、例えば当該構成要素または物の寸法において同一構成とすることができるが、場合によっては異なる構成とすることもできる。オプションの構成要素は、図面において破線の線または矢印を用いて示されている。
実施例を改良および変更できる態様は種々存在するが、図面中の実施例は例示であり、ここでは詳細に記載されている。しかし、実施例をそれぞれ開示されている形式に限定することを意図しておらず、実施例はむしろ、本発明の範囲に属する全ての機能的および/または構造的な改良、均等態様および代替的態様を含むべきものであることを、明確に述べておく。同一の符号は、全ての図面説明において同一または類似の要素を示す。
他の要素と「接続」または「結合」されていると記載されている要素は、当該他の要素と直接接続もしくは結合されることができ、またはこれらの間に要素が存在し得ることに留意すべきである。それに対して、要素が他の要素と「直接接続されている」または「直接結合されている」と記載されている場合には、これらの間に要素は存在しない。要素間の関係を表すために使用される他の用語も、同様に解釈すべきものである(例えば「〜の間」と「〜の間に直接」、「接する」と「直接接する」等)。
本願にて使用される用語用法は、特定の実施例を記載するためだけに供されるものであり、実施例を限定すべきものではない。本願にて使用されている単数形「1つの」および「前記1つの」は、文脈が特段の事情を一義的に示していない限りにおいて、複数形も含むべきものである。さらに、例えば本願にて使用されている「含む」、「備える」、「有する」、「包含する」等の文言は、掲げられている構成、整数、ステップ、作業フロー、要素および/または構成要素の存在を表すが、1つないしは複数の構成、整数、ステップ、作業フロー、要素、構成要素、および/またはこれらの群の存在または追加を除外するものではないことも明確に述べておく。
特段の定義がない限りは、本願にて使用されている全ての用語(技術用語および学術用語を含む)は、実施例が属する分野の通常の知識を有する者が認識できるものと同一の意味を有する。さらに、例えば一般的に使用されている辞書に定義されている文言は、本願にて明確に定義されていない限りにおいて、関連する技術の文脈における当該文言の意味と一致する意味を有すると解すべきであり、理想化されたまたは過度に形式的な意味で解釈すべきものではないことを、明確に述べておく。
図1は、患者台装置の光学的画像データを取得して、当該画像データに基づいて患者台装置の少なくとも1つの側方仕切り部の姿勢を特定するための装置10の一実施例を示す。本装置10は、最初に画像データに基づいて患者台装置の少なくとも1つの部分セグメントの姿勢を特定し、少なくとも1つの部分セグメントの姿勢に基づいて患者台装置の少なくとも1つの側部仕切り部の姿勢を特定するように構成されている。オプションの構成要素は、図面において破線を用いて示されている。
実施例では、患者台装置100は1つまたは複数のセグメント120を有することができる。図2は、4つのセグメント120a,120b,120cおよび120dを有する患者台装置100の一例としての患者用ベッドを示している。上記および下記において、患者台装置100とは例えば、位置調整可能な患者用ベッド、手術台、寝椅子、バー、エアロック台、患者用椅子、車椅子等をいい、すなわち、人、患者または要介護者を載せ、寝かせ、支援するため、場合によっては搬送等するために適した装置をいう。以下、患者用ベッドを例に、数例の実施例を検討する。この患者用ベッドは、任意の患者台装置の代表として想定したものであり、そう解すべきものである。
図3は、4つの側部仕切り部またはベッド柵110a,110b,110c,110dおよび複数の部分セグメント120を有する患者台装置100としての患者用ベッドを示す図である。図2および図3に示されているように、各セグメント120は、例えば足サポート部、脚サポート部、胴部サポート部、背中サポート部、頭部サポート部等、それぞれ異なる機能に対応したものとすることができ、かつ例えば着座領域と横たわり領域等、複数の領域に分割することができる。図2の部分セグメント120,120a,120b,120c,120dの少なくとも一部は、患者台装置100の横たわり領域および/または着座領域のセグメントに割り当てられている。他の実施例では、患者用ベッドに代えて、対応するセグメント120を有する任意の他の患者台装置100を検討することもできる。部分セグメント120a,120b,120c,120dはコンフィギュレーション可能または位置調整可能であることにより、相互間で種々の姿勢をとることができ、またはベッドフレームに対して種々の相対姿勢をとることもできる。図2および図3を参照のこと。
図示の実施例では、ベッドのマットレスが、コンフィギュレーション可能である上述の4つのセグメント120a,120b,120c,120dに分割されている。図2では側部仕切り部110が、上に立てられたベッド柵として示されており、これらのベッド柵は、少なくとも部分セグメント120a,120b,120cおよび120dを平らに調整したときに患者の転落をある程度防止するためのものである。上記および下記において、セグメント120,120a,120b,120c,120dまたは側部仕切り部の姿勢とは、セグメント120,120a,120b,120c,120dまたは側部仕切り部の方向、方位、少なくとも1つの他の部分セグメントに対する相対的な向きおよび位置、例えば長手軸または横軸の交差角等、例えば地面、患者台装置の軸等の参照物体に対する相対的な向きおよび位置、患者台装置または側部仕切り部上に位置する患者の特定の状態の場合に当該患者台装置または側部仕切り部の設定を変更すべきか否かを介護員に通知する情報等をいう。つまり姿勢についての情報の特定は、患者台装置100の設定またはコンフィギュレーションについて判断することにより、その後にこの設定またはコンフィギュレーションを例えば記録できるようにし、かつ/または当該設定の変更を行うべきか否かも評価できるようにすることを目的として行われるものである。その点では、少なくとも1つの部分セグメント120および少なくとも1つの側部仕切り部110の姿勢は、当該少なくとも1つの部分セグメント120または当該少なくとも1つの側部仕切り部110の設定またはコンフィギュレーションの推定を可能にする1次元、2次元または3次元情報、例えば角度、直線、平面の形態の情報等を基準とすることができる。
図3は、実施例の側部仕切り部110a,110b,110cおよび110dの複数の異なる姿勢を示している。これらのコンフィギュレーションは、位置調整可能な側部仕切り部のコンフィギュレーション例であり、本実施例では側部仕切り部は4つである。
図1はさらに、本装置10が多くの実施例においてさらに、少なくとも1つの側部仕切り部110の姿勢についての情報を出力するためのインタフェース12を備えることができることを示している。インタフェース12は、下記にて詳細に説明する特定装置16に結合することができる。インタフェース12を介して例えば、少なくとも1つの部分セグメント120および/または側部仕切り部110のコンフィギュレーション/姿勢についての情報(例えば角度、交差角、これらから導出された情報等)、および/または当該情報の信頼性についての情報を、他の構成要素へ伝送することができ、これらの情報は、例えば画像データの後続のさらなる処理のため、例えばディスプレイもしくはモニタへ、表示装置、記憶装置、警報装置または記録システムへ伝送することができる。
例えばインタフェース12は、例えばデジタルビット値、アナログ信号、磁界で、符号方式で、1つのモジュール内で、複数のモジュール間で、または複数のインスタンスのモジュール間で、情報を受信するための1つもしくは複数の入力端および/または情報を送信するための1つもしくは複数の出力端に相当することができる。またインタフェース12は、例えば操作パネル、スイッチまたはロータリスイッチ、ノブ、接触感知式ディスプレイ(英語の「タッチスクリーン」ともいう)等の入力インタフェース12に相当することもできる。よってインタフェース12は、例えば部分セグメント姿勢の特定を行うべきか否か等についての情報の受け取りと、場合によっては受信または入力も行えるものである。
患者台装置PLV100は、多くの医療分野において、例えば病院(例えば救急救命室、リカバリー室、病室、集中治療ステーション等)、救急車または老人ホームおよび在宅介護等において、使用される。PLV100は一般に、患者に対して横たわり面ないしは座面を提供することを特徴とするものである。PLV100にはしばしば、個別に患者の要求に合わせてカスタマイズされた特別な要求が課されることが多い。よって、横たわり面は、相互に位置調整可能である複数の(PLV)セグメント120,120a,120b,120c,120dから成るので、しばしばコンフィギュレーション可能であることが多い。特定装置16は、患者台装置100の少なくとも1つの部分セグメント120の姿勢を特定するように構成することができる。以下では、4つの部分セグメント120a〜120dが設けられている実施例を検討するが、他の実施例では、設ける部分セグメント120の数を増加または減少することもできる。
かかる一例が図2に示されている。同図では、横たわり面の頭部が直立可能となっており、患者の脚を曲げることができるように脚部位のセグメント120c,120dが調整可能となっている。このようにして患者の姿勢に決定的に影響を与えることができ、これにより快適性を向上し、リスクを最小限にし、治療結果を改善することができる。さらに、PLV100は全体的に、ある程度まで高さ調整およびリクライニング可能であることが多い。
多くのPLV100にはさらに側部仕切り部110が、たいていは両側に備え付けられている。この側部仕切り部110は患者の保護に供され、PLVからの転落/落下を防止するものである。側部仕切り部のおそらく最も頻度が高い形態は、図2および図3にも示されているようにベッド柵(または「ベッドサイドサポート部」もしくは「ベッドサイドパーツ」ともいう)である。ベッド柵は約70年前から落下の防止のために使用されている。可能な実施形態の相違点は、ベッド柵がベッド両側に一続きで設けられているか否か、またはベッドの各側に、互いに分離しているベッド柵が2つずつ配置されているか否かであることが多い。前者の態様の一例が図2に示されており、後者の一例は図3に示されている。ベッド柵はたいてい、ベッドフレームの側部に直接固定されているか、またはPLVセグメント120のうち1つに固定されている。ベッド柵は高低調整可能であり、また、潜在的にその間の設定に無段階でも調整可能である。
図3の実施例では、ベッド柵は各側において2パーツ構成となっており、PLVセグメント120に固定されている。PLV100の左側では、ベッド柵は上に立てられており、右側では下げられている。
しかし、ベッド柵を使用していても落下は生じる。不都合な場合には、患者がベッド柵を越えようとして、落下高度がより高くなることにより、ベッド柵が、可能性のある落下の重度を増大することもあり得る。さらに、患者が不都合にベッド柵に挟まれ、その結果として負傷し、または死亡するリスクも存在する。身体の部位、とりわけ末端部が比較的長期間載っていると、その結果として圧迫潰瘍が生じる可能性があり、これ自体が健康上の高いリスクとなる。すなわちベッド柵が十分に(上昇した)リスクとなり得ることは、研究(Capezuti, Wagner, & Brush, 2007)でもテーマとして取り上げられている。
ベッド柵は、患者がベッドにおいて寝返りを打ち、または異なって位置決めするのを助けることもできる。というのも、患者をベッド柵に留め置いて、これに沿って動くことができるからである。その上、ベッド柵によって物を固定することもできる(例えば排流器、採尿バッグ、患者固定手段等)。いかなる場合においても介護員は、ベッド柵を取り付けるか否かを良く検討しなければならない。その判断のための1つの可能なガイドライン、特に米国に係るガイドラインが、例えば(Talerico & Capezuti, 2001)に記載されている。少なくとも独国においては、ベッド柵の使用について法律上のハードルも存在する。というのも、上に立てることは自由を奪うことになる可能性もあるため、正当化する根拠が必要となり得るからである。患者に帰責能力がある場合には、患者自身がその根拠となり得る。そうでない場合には、医師は緊急時に、ベッド柵の最大24時間にわたる使用を指示することができる。介護状況においても(例えばPLV100の設定または位置の変更時等)、ベッド柵を短時間上に立てることが許される。それ以外の場合、またはそれを越える場合には、裁判官と話し合わなければならない場合がある。
ベッド柵を上に立てることは、毎回記録を要する。この記録は少なくとも、時点と、根拠と、許可の示唆とを含まなければならない。PLV100に関する詳細について、また、ここで述べられている他の側面に関しては、独国特許出願公開第102015013031号明細書(DE 10 2015 013 031.5)を参照されたい。同文献は、画像データに基づくPLV100の部分セグメントの姿勢の特定に取り組むものであるが、側部仕切り部110に関連する問題については言及していない。
図1にさらに示されているように、装置10は他の実施例では、患者台装置100の光学的画像データを取得するための取得装置14を備えることができる。取得装置14は、図1においてオプションとして示されているように(オプションの構成要素は、図1では破線で示されている)、3次元の点群を画像データとして取得するように構成された1つまたは複数のセンサを備えることができる。取得装置14は、特定装置16および/またはインタフェース12に結合することができる。取得装置14は、1つまたは複数の任意の光学的取得ユニット、取得機器、取得モジュール等に相当することができる。これについては、カメラ、画像センサ、赤外線センサ、1次元、2次元、3次元またはより高次元のデータを取得するためのセンサ、複数の異なる種類のセンサ素子等が可能である。この1つまたは複数のセンサは他の実施例では、少なくとも3次元のデータを出力するセンサを少なくとも1つ含むことができる。よって、この3次元のデータは空間内における画素についての情報を捉えるものであり、さらに、ほぼ他の次元として他の情報を含むこともでき、例えば色情報(例えば赤緑青(RGB)色空間等)、赤外線強度、透明情報(例えばα値等)等を含むことができる。
シーンの2次元の画像を生成しないが物体の表面点についての情報を含む3次元の点群を生成する種々の種類のセンサ、例えば座標または種々の奥行情報を有する画素を生成する種々の種類のセンサが存在する。例えば、センサまたはセンサシステム自体までの画素の距離についての情報が存在することができる。2次元の画像を取得するだけでなく、各画素からセンサシステム自体までの距離を含む奥行マップをさらに取得するセンサが、複数存在する。この奥行マップから、取得されたシーンを3Dで表現する3次元の点群を計算することもできる。
奥行マップのための奥行情報を特定するための複数の異なる手法の概観を、図4に示す。直接的手法と間接的手法とを区別することができ、前者は、一点からシステムまでの距離をシステム自体から直接求めるものであり、後者は、さらなる手法を要するものである。各手段についての追加情報は、とりわけ(Hartman, 2011)に記載されている。比較的最近において、かかるセンサは格段に安価かつ良質になっている。3次元の情報によって、コンピュータは撮像された物体をより正確に解析することができ、関心対象の情報、例えば物体間の距離等を導出することができる。
図4は、数例の実施例における3次元の画像データの特定についての概観図であり、図4以外の当該特定の態様も、実施例において使用することができる。ここで留意すべき点は、ここでは基準とされる3次元の画像データはしばしば、3次元の部分画像にしか相当しないことが多いことである。というのも、センサは特定の視点からの画素しか検出しないので、不完全な3次元画像しか生じ得ないからである。以下さらに説明するように、複数のかかる部分画像を組み合わせることによって、品質が改善された1つの画像を得ること、またはより多くの画素を得ることもでき、このより多くの画素も、1つの部分画像のみに相当することができる。
図4は、まず40aにおいて、画像データ中の奥行情報の特定または計算を示している。ここで、分岐40bの直接的手法と、分岐40cの間接的手法と、を区別することができ、前者は、一点からシステムまでの距離を、システム自体を用いて直接求めるものであり、後者は、距離特定のためにさらなる設備を要するものである。直接的手法は、例えば伝搬時間測定(英語で「タイム・オブ・フライト」(time of flight)ともいう)40dおよび合焦(焦点外し)法40eである。間接的手法には例えば、(例えば構造光40h、動き40i、またはステレオカメラ40j等を用いる)三角測量法40fおよび表面特性の評価40gが含まれる。
これら複数の異なる手段のさらなる詳細については、例えばHartman F.、2011年に記載されている。上記参照のこと。かかるセンサは過去に低コストになり、また、開発が進められてより高パフォーマンスになった。3次元の情報により、コンピュータが、取得された物体の適切な解析を行って、対応するデータを生成することができる。
実施例は、患者台装置100の少なくとも1つの部分セグメント120,120a,120b,120c,120dの少なくとも1つの部分姿勢を3次元空間における部分平面として表示するデータセットを、結果として出力することができる。多くの実施例では、部分平面を3次元空間における2次元の部分平面として、または2次元空間における1次元の部分直線として表示することができる。部分直線表現の場合には、より高次の知識として、平面が2次元の座標に対して垂直な第3の次元で延在すると仮定することができる。詳細については、独国特許出願公開第102015013031号明細書を参照されたい。
少なくとも多数の実施例は、自動的かつ非接触で、PLV100と利用側システムとの間に少なくとも部分的に通信接続を設けることなく、少なくとも1つの側部仕切り部110および部分セグメント120の検出された姿勢に依存してベッドコンフィギュレーションにおける患者の安全性を表す尺度を提供するための方法、コンピュータプログラムおよび/または装置を開示する。この課題は数例の実施例では、日中および夜間の双方において、例えば赤外線センサを用いて解決することができる。
図1に示されているような装置10は、実施例では、人間が視認できる照明比に実質的に依存せずに動作する1〜n個(n=正の整数)のセンサを備え、または使用することができる。例えば、各センサがそれぞれシーンの3D点群を作成することができ、これらの3D点群を1つの点群にまとめることができる。センサは、モニタリング対象の患者台装置100の大部分が視界内に入る向きとすることができる。
図1にさらに示されているように、装置10はさらに、患者台装置100の少なくとも1つの部分セグメント120の姿勢を画像データに基づいて特定するように構成された特定装置16を備えることもできる。特定装置16はさらに、患者台装置100の少なくとも1つの部分セグメント120の姿勢に基づいて患者台装置100の横たわり面の大きさおよび位置を特定するように構成することができる。
特定装置16は、インタフェース12および取得装置14に結合することができる。実施例では特定装置16は、任意のコントローラまたはプロセッサまたはプログラミング可能なハードウェア構成要素に相当することができる。例えば特定装置16は、適切なハードウェア構成要素のためにプログラミングされたソフトウェアとして実現することもできる。よって、適切に適合されたソフトウェアを備えたプログラミング可能なハードウェアとして、特定装置16を具現化することができる。その際には、例えばデジタル信号プロセッサ(DSP)またはグラフィックプロセッサ等の任意のプロセッサを使用することができる。実施例は、プロセッサの特定の種類に限定されない。任意のプロセッサ、または特定装置16を具現化するための複数のプロセッサも可能である。図1にはさらに、数例の実施例では特定装置16を取得装置14に結合できることも示されている。かかる実施例では例えば、取得装置14の1つまたは複数のセンサは少なくとも3次元の(部分)画像データを取得して、これを特定装置16へ供給し、特定装置16は画像データ内において患者台装置100と、少なくとも1つの部分セグメント120および少なくとも1つの側部仕切り部110の姿勢とを特定する。
一実施例では特定装置16は、1〜n個のセンサに接続されているプロセッサユニットによって具現化されており、このプロセッサユニット上で上述の方法が実行される。その際には、センサをプロセッサユニットに接続するため、かつ例えば表示システムまたは記録システム等の他のシステムへ方法の結果を伝送できるようにするため、さらに通信接続を設けることもでき、この通信接続もインタフェース12を用いて実現することができる。
図5に、装置10の概念的表現が示されている。図5は、病室内の一実施例を示している。装置10は同図では、病室内のシーンの複数の視点から少なくとも3次元の部分画像データを取得するための2つの部分システム14aおよび14bを有する取得装置14を備えている。図5はさらに、コンフィギュレーション可能な患者用ベッド100(患者台装置100全般の代表)とドアとを示している。取得装置14の両部分システム14aおよび14bは、通信接続を介して、例えばイーサネットおよびインターネットプロトコル(IP)を介して、かつ/またはネットワーク内で、特定装置16に結合されており、この特定装置16は同図ではプロセッサユニット16として具現化されている。図5はさらに直交座標系18も示しており、これは以下の検討の基礎となる。
一般的に装置10は、それぞれ点群を検出する1〜n個のセンサを備えることができ、これらの点群は補完し合って1つの3次元の(部分)画像点群とすること、またはこれにまとめることができる。図5の実施例で示されているように、取得装置14は、少なくとも3次元の部分画像データを取得するための複数の画像センサを備えることができる。その際には特定装置16は、複数の画像センサのデータを患者台装置(ここでは患者用ベッド)100の少なくとも3次元の部分画像の画像データにまとめ、この(まとめられた)部分画像に基づいて少なくとも1つの部分セグメント120,120a,120b,120c,120dの姿勢の特定を行い、少なくとも1つの部分セグメント120,120a,120b,120c,120dの姿勢に基づいて少なくとも1つの側部仕切り部110,110a,110b,110c,110dの姿勢を特定するように構成されている。まとめられた画像データは例えば、センサの視角からの患者台装置100の3次元の表面についての情報を含む。複数の画像センサのデータをこのようにまとめることにより、単一画像を用いるより高い詳細度で、イメージング対象の患者用ベッド100の3次元の(部分)画像を生成することができる。
図5の実施例ではプロセッサユニットとして構成されている特定装置16は、ネットワークを介して1〜n個のセンサに接続されている。その際には、本来の特定は、まとめられたデータに基づいて行うことができる。通信接続を提供できるこのネットワークは、例えば記録、モニタリング、または(例えばモニタ上またはディスプレイ上での)表示を目的として、特定されたベッドコンフィギュレーションについての情報を転送するために供することもできる。図5は利用側システム20を示しており、これも通信接続を介して、例えば上記のインタフェース12も使用して、特定装置16に結合することができる。利用側システム20は側部仕切り部110の姿勢に関する情報を受け取り、例えば記録、安全モニタリング、警報等のために、この情報をさらに処理する。
同図は、シーンを観察する2つのセンサを示しており、これらのセンサは通信接続によってプロセッサユニット/計算ユニット16に接続されており、このプロセッサユニット/計算ユニット16は、ここで記載されている方法を実行し、プロセッサユニット/計算ユニット16自体は通信接続を介して利用側システムに接続されている。同図はさらにベッドも概略的に示しており、これは例えば、集中治療ステーションにて使用できるベッド等である。観察者側では、ベッドの側部仕切り部は下げられており、他方の側では上に立てられている。
図6のフローチャートにおいて、プロセッサユニット上で実行できる方法を示す。図6は、一実施例における側部仕切り部110の姿勢の特定についてのフローチャートである。開始ステップ50aへの入力として、本方法はPLV100の3D点群を待つ。この3D点群のためには、側部仕切り部のステータスを求めなければならない。この点群をシーンの点群全体から切り取ることは、物体検出手法およびセグメンテーション手法によって行うことができる。本方法は、これを用いてPLVの横たわり面を詳細に描写することを開始する。すなわちこの実行ステップ後には、PLVセグメントの特定50b、横たわり面の姿勢(向きおよび位置)ならびに大きさが、場合によっては複数の描写対象のセグメント120の形態で分かる。このステップも独国特許出願公開第102015013031号明細書に記載されている。
次に、PLVの両長辺の特定50cを行う。数例の実施例では特定装置16は、患者台装置100の2つの長辺を特定し、これらの長辺に基づいて画像データから、患者台装置100の少なくとも1つの側部仕切り部110に属しない画素を少なくとも部分的に除外するように構成することができる。側部仕切り部110が存在する場合には、この長辺に沿って側部仕切り部110が存在する。これまでに求められた情報に基づき、側部仕切り部110に属し得ない点を可能な限り全て除外する50d。ここで、残った点を2つの部分集合に分ける50e必要もあり得、PLV各側に1つの部分集合が対応する。特定装置16は、画像データをさらに患者台装置100の長辺の画素に制限するように構成されている。特定装置16はさらに、画像データを患者台装置100の側部平面上に投影して投影像を得るように構成することもできる。
ステップ50e〜50kはPLV各側の側部仕切り部110の識別に関するものであるから、本方法が両側についての判断を行うべき場合には、側ごとに別個に各々の点部分集合を用いてステップ50e〜50kを実施する。その際には、選択された部分集合の残りの点をPLVの側部平面に投影する50e。この生じた投影から、本方法は本実施例では少なくとも1つの画像を作成し50f、次にこの少なくとも1つの画像内にて、物体検出器50gを用いて側部仕切り部を探索する。特定装置16は、投影像内において物体検出を用いて側部仕切り部候補を特定するように構成されている。次に、物体検出器によって作成された検出結果を評価し50h、この評価とPLVセグメント120の姿勢とに基づき、側部仕切り部110を描写する出力50iを作成する。特定装置16は、側部仕切り部候補を評価し、評価された側部仕切り部候補に基づいて少なくとも1つの側部仕切り部110の姿勢を特定するように構成されている。
最後のステップ50jにおいて、側部仕切り部の設定と姿勢セグメントとに基づきベッドコンフィギュレーションの安全性の自動評価を行い、これに基づいて可能な警報を発する。特定装置16は、少なくとも1つの側部仕切り部110の姿勢に基づいて患者台装置100のコンフィギュレーションについての安全情報を特定するように構成されている。特定装置16は例えば、記憶装置を用いて安全情報を記録するように構成することができる。特定装置16は、例えばモニタ、ディスプレイ、プリンタ等の表示装置を介して安全情報を出力するように構成することもできる。特定装置16はさらに、安全情報に基づいて、患者台装置100のコンフィギュレーションが安全レベルを下回る場合に、警報情報、例えば光学的、触覚的または音響的な警報信号等を介護員に対して出力するように構成することもできる。
実施例は、側部仕切り部110の位置決めおよびその安全性の自動記録を行うことができる。次の他のアルゴリズムにて使用するため、または警報を発するため、ベッドコンフィギュレーションの安全性の自動評価を行うことができる。それ自体で側部仕切り部の位置決めを識別して伝送できる患者台装置100に基づく他の方法と比較して、実施例では、より容易に後付けを行えるようになる。よって実施例は、特定の患者台装置に限定されない汎用可能なシステムを実現することができる。実施例は、例えば洗浄措置によって損傷し得たり、またはこれによって面倒かつ高価な包装を施さなければならないセンサ系を、ベッドに取り付けることを要しない。しかし、かかるセンサが存在する場合には、これを実施例において共に使用することができる。1つの領域内で複数のPLVを使用する場合でも、ステータスデータを常に標準化して供給することができる。また、画像データを処理することにより、空間内の邪魔になる配線を省略することもできる。空間における側部仕切り部の各部の姿勢および位置が検出可能となり、他の処理のために(例えば衝突警報/衝突検出のために)使用することができる。
以下、数例の実施例を詳細に説明する。これについては特に、本方法の開示される各ステップの可能な実施態様を開示する。これらの実施態様では特定装置は、これら複数のステップと検出器とを具現化することができる。この実施例では、PLV100を描写する3次元の点を得るために3Dセンサを使用する。プロセッサユニット16として、市販のデスクトップコンピュータを使用することができる。以下では、図6にて概略的に示されている各ステップの少なくとも1つの可能な実施態様を、詳細に説明する。
図7には、一実施例を開示するために使用する、本方法の入力点群が、点群のために計算される有向境界ボックス(OBB、仕切りフレーム)と共に示されている。図7は、一実施例における仕切りフレームを含む取得された画像データを示す。図中には集中治療ステーションのベッド100が示されており、このベッド100のセグメント120の向きが床に水平方向に向かうように、当該セグメント120は調整されている。ベッド上に患者130が座っている。このベッドは側部仕切り部110を備えており、この側部仕切り部110は、ベッド側ごとに2つの部分から成る。ここでは、ベッド100の左側の両側部仕切り部110は上に立てられており、右側では、当該ベッド100の頭部に対応するベッド柵110のみが上に立てられている。入力点群のためのOBBは、独国特許出願公開第102015013031号明細書に詳細に説明されているように、本方法を使用して部分結果として特定することができる。
本実施例では、相互に位置調整可能であるセグメント120の形態の、PLV100の横たわり面を記載する。これらのセグメントは、その大きさ、位置および向きの形態で、独国特許出願公開第102015013031号明細書に記載されている方法を使用して特定することができる。
図8は、本実施例における仕切りフレームを含む図7の取得された画像データと、特定された部分セグメント120a,120b,120cおよび120dと、を示している。さらに、4つの側部仕切り部110a,110b,110cおよび110dないしはベッド柵を認識することができる。図8は、入力点群で、本事例では4つである計算されたPLVセグメント120a,120b,120cおよび120dを示している。さらに、PLVセグメント120a,120b,120cおよび120dの大きさは正確ではないことが分かる。というのも、座っている人130がいるため、OBBは過度に大きく計算されたからである。したがって本実施例では、OBBの右側の区切りの直近を探索しただけでは、右側の側部仕切り部110c,110dを特定することができない。次のステップがこれを補正する。
図9のように、本実施例は、側部仕切り部110a〜110dが取り付けられている可能性のあるPLV100の長辺を特定するために進行する。図9は、本実施例における側部仕切り部110a〜110dの特定についてのフローチャートである。本方法の主な課題は、この側において突出する物体を「切り取る」ことである。その基本的思想は、入力点群から画像を作成し、この画像において直線を探索することである。その際には、PLV100の辺を最良に描写する直線対を選択して、長辺を特定するために使用する。検討している本実施例では、本方法はステップ60aで開始する。
最初に、入力点群からヒストグラムを作成し60b、このヒストグラムでは、PLVセグメント120a〜120dを描写する方形のうちいずれかより上方にある点を、各方形に投影する。次に、それぞれ投影された点がクラスに分けられて計数されるように、セグメント120a〜120dごと(ないしは方形ごと)に2次元のヒストグラムを作成する。次に、各ヒストグラムの順序(足側から頭側に向かって)を維持しながら、これらのヒストグラムを結合して1つのヒストグラムにする。ここで、ヒストグラムを実際に忠実に作成するため、本方法がPLVセグメント120a〜120dに適用されていることに留意すべきである。例えばPLV100の頭部セグメントが斜めに立てられている場合には、床平面への点の投影は正確にならない。というのも、これらの点が投影においてカバーする領域は、頭部セグメントの向きが床に対して平行である場合よりも比較的格段に小さくなるからである。よって、PLVセグメント120a〜120dを使用するので、ロバストな方法が達成される。
次のステップ60cにおいて本方法は、結合されたヒストグラムから画像を生成し、この画像は以降のために使用される。このことは、ヒストグラムに閾値を適用して、値がこの閾値を上回る全てのヒストグラムクラスが白色の画素を生成し、他の全てのクラスが黒色の画素を生成することによって行われる。次に画像の孔を埋め((Soille, 1999)を参照のこと)、エッジ検出器を用いてエッジ画像を作成する(これを行うためには、文献に多数のアルゴリズムが存在する。例えば(Canny, 1986))。両ステップについては、図10に一例が示されている。左側は、本実施例の孔を埋めた後のヒストグラム画像を示しており、右側は、これから作成された、本実施例のエッジ画像を示している。ベッド両側は実質的に一直線上にあり、この直線はとりわけ患者130の脚によって途切れているのを認識することができる。
本方法は、生成されたエッジ画像内において直線60dを探索することによって進行する。これを達成する一手段は、いわゆるハフ変換である(Duda & Hart, 1972)。ここで使用されている実施例の直線は、図11の左側に示されている。ここで留意すべき点は、これらの直線は、ほぼ正確に重なり合うほど部分的に類似しているので、図11では個別に認識することができないことである。
しばしばハフ変換は、それぞれベッドの同一側を描写する多数の直線を発見することが多い。それゆえ直線を群分けし、各群は後で1つの直線にまとめられる60e。この群分け60eは、2つの直線間の距離寸法を定義し、これに基づいてグラフを作成することによって行われる。このグラフでは、直線はノードとして表現され、表現される両直線の各距離寸法が、定義された閾値より小さい場合、2つのノードはエッジによって接続されている。その後、生成されたグラフにおいて(例えばブロン・ケルボッシュ(Bron-Kerbosch)アルゴリズム(Bron & Kerbosch, 1973)を用いて)クリークを特定することにより、直線を群分けする。ここで、1つのクリークは1つの群に相当する。距離寸法は、直線の勾配と、当該直線が左側の画像縁部と交差する点とに基づく。図11では、左側に、本方法の発見された全ての直線を示しており、右側に、残った平均的な直線を示している。
次のステップ60fにおいて、発見されたクリークごとに、代表的である平均的な直線を特定する。これは、群の各直線の「直線重み」を考慮して行われ、直線重みは例えば、各直線に十分に近い白色の画素数として定義することができる。図11の右側には、特定された各クリークの平均的な直線を示しており、本実施例では4つである。最後に本方法は、残りの直線から最良の対を発見しようと試みる60g。このことは、直線の勾配(1対の直線は、可能な限り類似する勾配を有しなければならない)と、直線間の距離とを考慮して行われ、後者の場合、PLV100の典型的な幅についての既知情報を共に考慮することができる。本実施例では、このようにして上下の直線が選択される。
図12は、本実施例における、側部平面に基づいて得られた仕切りフレームを示す図である。図12の左側には、両直線から得られた平面を示しており、この平面はPLV100の長辺を表現している。右側には、これに基づいて補正されたOBB、および、誤ったまたは過度に大きい元のOBBも示されている。PLV100の長辺が特定されると直ちに、点群から、側部仕切り部に属し得ない点を可能な限り全て除外する。側部仕切り部はPLV100の長辺に沿って延在するので、両側部平面間に位置する点であって、両側部平面からの距離が最小寸法(例えば10cm)である点の全てと、両側部平面間にはない点であって、両側部平面からの距離が少なくとも第2の最小寸法(例えば10cm)である点とを破棄する。よって図12では、本実施例では、両平面のうち1つから最大10cm離れている全ての点が維持されることとなる。これらの点は、側部仕切り部を備えたベッドの長辺と、座っている人の一部とを含むこととなる。
以降のステップは、PLVの各側の側部仕切り部110の特定に関するものである。本実施例では、以下ではPLV100の左側を検討する。残った点を、それぞれPLV各側に対応する部分集合に分割することは、点から両側部平面までの距離で行われる。左側の側部平面により近い点は、PLV左側に対応する部分集合に対応付けられ、他の全ての点はPLV右側に対応する部分集合に対応付けられる。左側の側部平面への投影(図6の50eを参照)自体は、公知の数学的手法によって達成することができる。
その際にも、上記と同様に、投影された点から画像を作成する。つまり、ここでも点のヒストグラムを計算し、各ヒストグラムクラスを画像の画素として捉える、ということである。次に、閾値を用いて白黒画像を作成することができる。その際には、例えばノイズにより生じる現象を低減するため、フィルタ、とりわけガウスフィルタを、画像に適用することができる。ガウスフィルタを用いた場合の本実施例の結果は、図13の左側に見ることができる。図13は、本実施例における患者台装置100の横たわり面の向きが既知である投影像を示している。図13の左側は、投影された点の作成された画像を示しており、右側は、横たわり面の向きが既知である、同一画像を回転したものを示している。
側部仕切り部の両部分、および、とりわけ足プレートも認識することができる。次のステップにおいて、(1つまたは複数の)側部仕切り部110を探索しなければならない。このステップを可能な限りロバストにするためには、側部仕切り部110の出現の分散を可能な限り小さく抑えるのが好適となり得る。ここで、PLVセグメント120a〜120dが画像の水平軸に対して平行に延在するように画像をセグメントごとに回転することによって、PLVセグメント120a〜120dの姿勢についての知識を使用することができる。これにより、PLVセグメント120a〜120dの変位に対する不変性が達成される。というのも、側部仕切り部110の向きも画像の水平軸に対して平行となり、このことによって、物体検出器にとって追加の仮定が可能になるからである。
側部仕切り部110がPLVセグメント120a〜120dに固定されている場合、上記のことが成り立つ。しかし、そうではなくて側部仕切り部110がPLV長手軸に取り付けられることもあり得る。長手軸の姿勢と、特に向きを求めるためには、例えば以下の手法が可能である。
1)床から最大Dcmしか離れていない点を除外する(かかる点はPLV長手軸に属し得ない。というのも、PLV100は通常、医療従事者のためにある程度の最小作業高さを保証しなければならないからである)。
2)横たわり面より上方にある点を除外する(その際には、求められたPLVセグメント120a〜120dが必要となる)。
3)(例えば、各PLVセグメント120a〜120dからFcm下方にある点を除外することによって)マットレスに属する可能性がある点を除外する。
4)残った点に基づいて主成分分析(英語で「Principal Component Analysis」PCAともいう)(Jolliffe, 2002)を計算し、主軸をPLV長手軸として選択する。
このようにしてPLV長手軸の向きが分かった場合、この長手軸が画像の水平軸に対して平行に延在するように画像を回転することもできる。PLV100がどの型式に属するかが既知でない場合には、複数の回転された画像(PLVセグメント120a〜120dを考慮して回転したもの、長手軸に基づいて回転したもの、等)を作成し、この画像集合の中で側部仕切り部110を探索することができる。図13の右側は、本実施例の作成された画像を、PLVセグメント120a〜120dが当該画像の水平軸に対して平行になるように回転したものを示している。
本実施例では回転画像(図13の右側)において、訓練された物体検出器を使用することによって、側部仕切り部を探索する。ヴィオラ・ジョーンズ(Viola-Jones)・アルゴリズム(Viola & Jones, 2001)に従い、HOG特徴(Dalal & Triggs, 2005, 英語:Histograms of Oriented Gradients、有向勾配のヒストグラム)を用いて、画像内において側部仕切り部を識別できる物体検出器を訓練する。HOGは、複数の画像領域における勾配およびその向きのヒストグラムに基づく特徴である。検出器の探索の結果を、図14に示す。図14は、一実施例における物体検出器によって同定された部分セグメントおよび側部仕切り部を示す図である。
検出器は、左側の側部仕切り部の両部分を識別および位置特定することに成功している(図14の破線の方形で示されている)。ここで留意すべき点は、側部仕切り部の位置特定を行える手段はヴィオラ・ジョーンズ・アルゴリズムによる物体検出器だけではない、ということである。例えば、「移動窓(sliding window)」手法を用いて画像を探索することもできる。この移動窓手法では、方形(“window”)を複数の異なる大きさで画像にわたって移動させ(“sliding”)、このように選択された方形ごとに特徴ベクトルを特定し、この特徴ベクトルに基づいて分類器が、当該方形内に側部仕切り部が存在するか否かを判断する。特徴ベクトルとしては例えば、上記にて既に述べたHOG(Dalal & Triggs, 2005)、ローカルバイナリパターンまたはHaar特徴を使用することができる。これらの特徴の組み合わせも可能である。分類器としては、サポートベクトルマシンまたはランダムフォレスト分類器を使用することができる。これらの検出器およびアルゴリズムの詳細については、例えば
Ojala, T., M. Pietikainen, and T. Maenpaa,“Multiresolution Gray-scale and Rotation Invariant Texture Classification With Local Binary Patterns”. IEEE Transactions on Pattern Analysis and Machine Intelligence. Volume 24, No. 7、2002年7月、第971〜987頁、
Viola, P., and M. J. Jones,“Rapid Object Detection using a Boosted Cascade of Simple Features”. Proceedings of the 2001 IEEE Computer Society Conference. Volume 1、2001年4月15日、第I‐511〜I‐518頁、
Cortes, Corinna, and Vladimir Vapnik.“Support-vector networks.”Machine learning 20.3 (1995): 273-297、および
Breiman L., Random forests. In Machine Learning、第5〜32頁、2001
に記載されている。
物体検出器が複数の、場合によっては誤った検出を行うことが、十分に起こり得る。よってその次に、作成された検出結果のセットを評価するステップが設けられている。図6の50hを参照のこと。本実施例では、検出結果を評価して選別するために種々の現状を利用する。例えば、複数の側部仕切り部を(床から天井に向かって)上下に配置してはならない。その際には、例えばヴィオラ・ジョーンズ・アルゴリズム等の多くの公知の物体検出手法が検出結果ごとに信頼度を示すことを利用することができる。例えば、上下に重なる検出結果のうち信頼度が最高である検出結果のみを保持することができる。これに代えて、またはこれと共に、横たわり面より下方に位置する検出結果を優先することもできる。その背景にある思想は、横たわり面上において邪魔になる物体(例えば枕等)が存在することがあり、これが場合によっては誤検出の原因となることである。しかし、このPLV部分において側部仕切り部が下げられていることを既に発見していれば、枕に起因する誤った検出結果を選別することができる。PLV100の側部仕切り部110は、各側で1つまたは2つの部分から構成されている。よってさらに、各側の検出結果の数を、信頼度に基づいて最大2に制限することができる。
本方法の結果または側部仕切り部の描写は、様々な形態とすることができる。まず、側部仕切り部の構成を描写することができる。すなわち、検出結果に基づいて、(もちろんここでも側ごとに)1パーツ構成の側部仕切り部であるか、または2パーツ構成の側部仕切り部であるかを判断する。次に、各パーツの設定を描写することができ、例えば、
1)3次元空間における多角形によって、
2)3次元空間における直方体によって、
3)検討対象のパーツの部分における横たわり面またはPLV長手軸より上方(ないしは下方)の当該パーツの平均高さによって、かつ
4)x(例えば0)とy(例えば10)との間の数によって、
描写することができる。上記4)において、xは当該パーツの最低位置を表し、yは当該パーツの最高位置を表す。位置xおよびyは、例えばPLVの型式によって既知となり得る。
側部仕切り部110のパーツの高さについて表示する出力は、参照点を要することに留意すべきである。その際にはとりわけPLV100の横たわり面が好適である。というのも、横たわり面より上方の側部仕切り部の高さが自ずと当該仕切り部の作用について決定するからである。既に上記で述べたように少なくとも多くの実施例では、特定装置16は安全情報に基づいて、または安全度にも基づいて、患者台装置100のコンフィギュレーションが安全レベルを下回る場合に警報情報を出力するように構成することができる。例えば、患者台装置100の安全レベルは、少なくとも1つの側部仕切り部110に対する少なくとも1つの部分セグメント120の相対姿勢に基づくことができる。
図6のステップ50jにおいて記載されているように、患者に係る実際のPLVコンフィギュレーションの安全性について判断するためには、ベッドコンフィギュレーションの安全度を、PLV100の側部仕切り部110および姿勢セグメント120の識別された設定に基づいて特定および解釈することができる。図15では、4つの横たわり面(l=1,2,3,4)が各部分セグメント120a〜120dにわたって配置されている。図15は、本実施例におけるベッド柵110を備えた患者用ベッドの可能なコンフィギュレーションを示している。本願の方法により、多くの実施例ではかかる判断を、単なる2値(上に立てられている、下げられている)識別を行う場合より格段に強い根拠で下すことができる。その説明のため、例として図15に示されているPLVコンフィギュレーションを検討する。ベッド柵110はここでは上に立てられているが、コンフィギュレーションは危険である可能性があり、‐とりわけ横たわり面の頭部セグメント(l=4)が上昇していることにより、ここではベッド柵110があるにもかかわらず患者がPLV100から離脱しやすくなっている。ある程度の落下危険性がある。
姿勢セグメント120およびベッド柵110の特定された姿勢と、ひいてはこれらの相互間の関係とに基づき、かかる状況を識別することができる。以下、そのための数例の手段を挙げる。
図17をここで参照されたい。同図は、安全情報を特定するための方法の複数の実施例を示している。図17は「安全度フローチャート」を流れ図で示している。数例の実施例では、このフローチャートによれば横たわり面より上方の平均高さを特定する。安全レベルは、少なくとも1つの部分セグメント120にわたる横たわり面より上方の側部仕切り部110の平均高さの度合いとなり得る。例えば、最初に横たわり面を複数の下位部分に分割する70a(図17の上方のフローチャートを参照のこと)。例えば、横たわり面を5cmの長さの複数の断片に分割することにより、2mの長さの横たわり面の場合には40個の下位部分を作成することができる。次に、下位部分ごとにベッド柵上部縁辺より上方ないしは下方の高さを特定し70b、これによってここでは
Figure 2019536129
のベクトルが求められる。その後、横たわり面より上方の平均高さを
Figure 2019536129
によって計算する70c。最後に、mと閾値Sとを比較する70d。vは、ベッド柵上部縁辺より上方の横たわり面下位部分の高さを表す。すなわち、この部分が縁辺を越える場合、vは正となり、そうでない場合には負となる。ここで、vが大きいことは危険性があることを意味し、これは、ステップ70eにおいて閾値Sを上回ることによって現れる。平均高さmがSより小さい場合、状況は危険に分類され70e〜70f、そうでない場合には分類されない70e〜70g。本方法が出力する安全性の尺度が連続的である場合、M=m−Sが1つの可能性となり得る。
数例の実施例では、姿勢セグメント120ごとに平均高さを特定することもできる。図17の中央の線図の70h,70iを参照のこと。高精度化する一手段は、下位部分vを姿勢セグメントに従って分けることにより、姿勢セグメントごとに下位部分ベクトルが得られるようにすることである。よって、この場合にはv・・・vL=4であり、ここで
Figure 2019536129
である。
このようにして、姿勢セグメントごとに個別に、上記のものと同様に平均高さを計算することができ70j、これによってm・・・mが得られる。その後、姿勢セグメントごとに別個のこれらの平均高さを、個別の閾値S・・・Sと比較することができる。ここで平均高さと各平均高さに対応する各閾値とを比較するとm<S、70k、正となった比較結果の数または割合を使用することにより、安全性について判断することができる70l,70m,70n。かかるプロセスによって例えば、頭部から落下するおそれがある場合に疑いのある段階でより早期に警報を発するように、頭部セグメントに対する閾値を小さく規定することができる。
他の一実施例では、安全な領域の割合を求めることができる。図17の下方のフローチャート70o,70pを参照のこと。平均高さを計算することに代えて、横たわり面より上方のベッド柵上部縁辺の高さvをそのまま直接、1つまたは複数の閾値Sと比較することもできる70q。よって、Sによって原則的に、横たわり面より上方の安全地帯が規定される。ベッド柵上部縁辺がこの安全地帯より下方にある場合には、対応する領域は非安全として標識される。明確に示すため、ここで図16を参照されたい。図16は、一実施例における可能な評価を示している。図16はPLV100と、部分セグメント120a〜120dと、ベッド柵110とを示している。ここで、コンフィギュレーションの安全性を評価して、場合によっては警報を発するため、非安全領域の割合aと第2の閾値Sとを比較することができる。70r,70sを参照のこと。
上掲の手段の主な相違点は、下位部分vをどのように形成して評価するかである。図17のフローチャートは「危険」および「非危険(安全)」の評価しか示していないが、いずれの場合にも、危険の度合いを連続的に表示する数値(通常は、対応する閾値までの間隔)を表示することもできる。この評価の後、例えば警報ステップを行うことができる。
実施例は、側部仕切り部110の位置決めおよびその安全性の自動記録を行うことができる。多くの実施例では、ベッドコンフィギュレーションの安全性を表す尺度を、側部仕切り部110の位置決めと部分セグメント姿勢120とに基づいて特定して、記録システムに格納することができる。記録システムは典型的には、ベッドコンフィギュレーションの安全性についての情報を格納できるデータベースとして構成されている。このデータベースは、例えば階層型データベースモデル、リレーショナルデータベースモデル、オブジェクト指向データベースモデルまたはドキュメント指向データベースモデル等の、種々のデータベースモデルに従うことができる。医療環境では、かかるデータベースは例えば臨床情報システムに組み込まれている。
数例の他の実施例では、安全情報に基づいて警報を発することができる。側部仕切り部110の位置決めと部分セグメント姿勢120とに基づいて特定された、ベッドコンフィギュレーションの安全性を表す尺度は、適切な表示の場合に自動的に警報を発するために使用することができる。一実施例の方法によって例えば、ベッドコンフィギュレーションの安全性が低くなるほど小さくなる安全性を表す尺度Mが求められる場合には、介護員によって、閾値Sであって、当該閾値Sを下回ると警報が発せられる閾値Sを設定することができる。
他の実施例では、表示システムを実装することができる。装置10は、ベッドコンフィギュレーションの安全性を表す計算された尺度を遠隔の表示システムへ伝送することができる。さらに、この尺度の基礎である情報、すなわち側部仕切り部110の位置決めおよび横たわり面の部分セグメント姿勢を伝送することもできる。このようにして医療関係者は設定を遠隔から検査することができ、これは例えば衛生が重要な領域において有意義となり得る。
かかる表示システムの例は、
臨床情報システム、
例えば単純なスクリーン、モニタおよびディスプレイ等の定置の表示ユニット、ならびに
例えばスマートフォンまたはタブレット等のモバイル表示機器
である。
表示されるデータは、例えばネットワークまたはウェブサイトを介して提供することができ、データベースに格納することができ、または表示ユニットへ直接(例えばHDMI(High Definition Multimedia Interface)を介して)転送することができる。警報によってトリガされる表示部も可能である。システムが例えば上述のように警報を発する場合には、このときに初めて上掲の情報を上掲の表示システムへ伝送することができる。
図18は、側部平面を特定するための方法の一実施例のフローチャートのブロック回路図である。患者台装置100の光学的画像データを取得し、当該画像データに基づいて患者台装置100の少なくとも1つの側部仕切り部110の姿勢を特定するための方法は、画像データに基づいて患者台装置100の少なくとも1つの部分セグメント120の姿勢を特定すること80aを含む。本方法はさらに、少なくとも1つの部分セグメント120の姿勢に基づいて患者台装置100の少なくとも1つの側部仕切り部110の姿勢を特定すること80bを含む。
他の一実施例は、プログラムコードを有するプログラムであって、当該プログラムコードは、コンピュータ上、プロセッサ上、またはプログラミング可能なハードウェア構成要素上で実行されるときに本願に記載の方法を実施するためのものであるプログラムである。
上記の説明と特許請求の範囲と図面とに開示した本発明の各特徴は、単独でも、また任意の組み合わせでも、実施例を様々な実施形態で実施するのに重要となることができ、‐明細書から特段の事情が明らかでない限りにおいて‐互いに任意に組み合わせることができる。
多数の側面を装置の文脈で説明したが、これらの側面は、対応する方法の説明にもなるので、装置の各ブロックまたは各構成要素は、方法の対応する各ステップまたは各ステップの特徴であると解することができることは、自明である。これと同様に、方法の1ステップの文脈において、または1ステップとして記載されている側面も、対応する装置の対応するブロックまたは詳細または構成の説明となる。
特定の実装要件いかんに応じて、本発明の実施例をハードウェアまたはソフトウェアで実装することができる。この実装は、デジタル記憶媒体、例えばフロッピーディスク、DVD、ブルーレイディスク、CD、ROM、PROM、EPROM、EEPROMもしくはフラッシュメモリ等、ハードディスクまたは他の磁気もしくは光学メモリを用いて行うことができ、これに、電子的に可読の制御信号が記憶され、制御信号は、各方法を実施するように、プログラミング可能なハードウェア構成要素と協働することができ、または協働する。
プログラミング可能なハードウェア構成要素は、プロセッサ、コンピュータプロセッサ(CPU=Central Processing Unit)、グラフィックスプロセッサ(GPU=Graphics Processing Unit)、コンピュータ、コンピュータシステム、特定用途集積回路(ASIC=Application-Specific Integrated Circuit)、集積回路(IC=Integrated Circuit)、ワンチップシステム(SOC=System on Chip)、プログラミング可能な論理素子、またはマイクロプロセッサを備えたフィールドプログラマブルゲートアレイ(FPGA=Field Programmable Gate Array)によって構成することができる。
よって、デジタル記憶媒体は、機械可読またはコンピュータ可読とすることができる。よって多くの実施例は、電子的に可読の制御信号を有するデータ媒体を備えており、制御信号は、本願にて記載されている方法のうち1つを実施するように、プログラミング可能なコンピュータシステムまたはプログラミング可能なハードウェア構成要素と協働できるものである。よって一実施例は、本願にて記載されている方法のうち1つを実施するためのプログラムを記録したデータ媒体(またはデジタル記憶媒体またはコンピュータ可読媒体)である。
一般的に本発明の実施例は、プログラムコードを有するプログラム、ファームウェア、コンピュータプログラムもしくはコンピュータプログラム製品として、またはデータとして具現化することができ、プログラムコードまたはデータは、プログラムがプロセッサ上またはプログラミング可能なハードウェア構成要素上で実行されるときに本方法のうちいずれか1つを実施するために働くものである。プログラムコードまたはデータは例えば、機械可読媒体またはデータ媒体に記憶することができる。プログラムコードまたはデータはとりわけ、ソースコード、機械コードまたはバイトコードとすることができ、また、他の中間コードとすることもできる。
他の一実施例はさらに、本願にて記載されているいずれか1つの方法を実施するためのプログラムを表すデータストリーム、信号列または信号のシーケンスである。データストリーム、信号列または信号のシーケンスは例えば、データ通信接続を介して、例えばインターネットまたは他のネットワークを介して伝送されるものとすることができる。よって実施例は、プログラムを表すデータを表現する信号列であって、ネットワークまたはデータ通信接続を介して送信されるために適した信号列でもある。
一実施例のプログラムは、その実行中に例えば、そのメモリ位置を読み出し、またはそのメモリ位置に1つのデータまたは複数のデータを書き込むことによって、場合によってはトランジスタ構造、増幅器構造、他の電気的、光学的もしくは磁気的素子、または他の動作原理で動作する素子において、スイッチング過程または他の過程を引き起こすことにより、本方法のうち1つを実施することができる。よって、メモリ位置を読み出すことにより、データ、値、センサ値、またはプログラムの他の情報を取得、特定または測定することができる。よってプログラムは、1つまたは複数のメモリ位置を読み出すことによりパラメータ、値、測定量および他の情報を取得、特定または測定することができ、また、1つまたは複数のメモリ位置に書き込むことによって動作を引き起こし、開始し、または実行することができ、また、他の機器、機械および構成要素を制御することができる。
上記の実施例は、単に本発明の原理を具体的に示すだけのものである。もちろん、本願にて記載されている構成および詳細の改良および変更は、他の当業者に明らかである。よって意図するところは、本発明は、以下の特許請求の範囲の保護範囲によってのみ限定されるのであって、本願にて明細書および実施例の説明に基づいて示されている特定の詳細によって限定されるものでないということである。

Claims (17)

  1. 患者台装置(100)の光学的な画像データを取得して、前記画像データに基づいて前記患者台装置(100)の少なくとも1つの側部仕切り部(110)の姿勢を特定するための装置(10)であって、
    前記装置(10)は、最初に前記画像データに基づいて前記患者台装置(100)の少なくとも1つの部分セグメント(120)の姿勢を特定し、前記少なくとも1つの部分セグメント(120)の姿勢に基づいて前記患者台装置(100)の前記少なくとも1つの側部仕切り部(110)の姿勢を特定するように構成されており、
    特定装置(16)は、前記少なくとも1つの側部仕切り部(110)の姿勢に基づいて前記患者台装置(100)のコンフィギュレーションについての安全情報を特定するように構成されており、
    さらに前記特定装置(16)は、前記安全情報に基づいて、前記患者台装置(100)のコンフィギュレーションが安全レベルを下回る場合に警報情報を出力するように構成されている、
    装置(10)。
  2. 前記装置(10)はさらに、前記少なくとも1つの側部仕切り部(110)の姿勢についての情報を出力するためのインタフェース(12)を備えている、
    請求項1記載の装置(10)。
  3. 前記装置(10)は、前記患者台装置(100)の光学的な画像データを取得するための取得装置(14)を備えており、
    前記取得装置(14)は、前記画像データとして3次元の点群を取得するように構成された1つまたは複数のセンサを備えている、
    請求項1または2記載の装置(10)。
  4. 前記装置(10)は、さらに特定装置(16)を備えており、
    前記特定装置(16)は、前記画像データに基づいて前記患者台装置(100)の前記少なくとも1つの部分セグメント(120)の姿勢を特定するように構成されており、
    前記特定装置(16)はさらに、前記患者台装置(100)の前記少なくとも1つの部分セグメント(120)の姿勢に基づいて前記患者台装置(100)の横たわり面の大きさおよび位置を特定するように構成されている、
    請求項1から3までのいずれか1項記載の装置(10)。
  5. 前記特定装置(16)は、さらに前記患者台装置(100)の2つの長辺を特定し、前記長辺に基づいて前記画像データから、前記患者台装置(100)の前記少なくとも1つの側部仕切り部(110)に属しない画素を少なくとも部分的に除外するように構成されている、
    請求項4記載の装置(10)。
  6. 前記特定装置(16)は、前記画像データをさらに前記患者台装置(100)の長辺の画素に制限するように構成されている、
    請求項5記載の装置(10)。
  7. 前記特定装置(16)は、前記画像データを前記患者台装置(100)の側部平面上に投影して投影像を得るように構成されている、
    請求項6記載の装置(10)。
  8. 前記特定装置(16)は、前記投影像内において物体検出を用いて側部仕切り部候補を特定するように構成されている、
    請求項7記載の装置(10)。
  9. 前記特定装置(16)は、前記側部仕切り部候補を評価し、評価された前記側部仕切り部候補に基づいて前記少なくとも1つの側部仕切り部(110)の姿勢を特定するように構成されている、
    請求項8記載の装置(10)。
  10. 前記特定装置(16)は、記憶装置を用いて前記安全情報を記録するように構成されている、
    請求項1記載の装置(10)。
  11. 前記特定装置(16)は、表示装置を用いて前記安全情報を出力するように構成されている、
    請求項1または10記載の装置(10)。
  12. 前記患者台装置(100)の前記安全レベルは、前記少なくとも1つの側部仕切り部(110)に対する前記少なくとも1つの部分セグメントの相対姿勢に基づく、
    請求項1記載の装置(10)。
  13. 前記安全レベルは、前記患者台装置(100)の特定されたコンフィギュレーションの場合に前記患者台装置(100)から患者が落下するリスクがどの程度高いかを表す尺度である、
    請求項1または12記載の装置(10)。
  14. 前記安全レベルは、前記少なくとも1つの部分セグメント(120)にわたる横たわり面より上方の前記側部仕切り部(110)の平均高さの度合いである、
    請求項1から13までのいずれか1項記載の装置(10)。
  15. 前記特定装置(16)は、前記患者台装置(100)の少なくとも2つの部分セグメント(120a;120b)の姿勢を特定するように構成されている、
    請求項1から14までのいずれか1項記載の装置(10)。
  16. 患者台装置(100)の光学的な画像データを取得し、前記画像データに基づいて前記患者台装置(100)の少なくとも1つの側部仕切り部(110)の姿勢を特定するための方法であって、
    前記画像データに基づいて前記患者台装置(100)の少なくとも1つの部分セグメント(120)の姿勢を特定するステップ(80a)と、
    前記少なくとも1つの部分セグメント(120)の姿勢に基づいて前記患者台装置(100)の前記少なくとも1つの側部仕切り部(110)の姿勢を特定するステップ(80b)と、
    を有する方法。
  17. プログラムコードを有するプログラムであって、
    前記プログラムコードは、コンピュータ上、プロセッサ上、またはプログラミング可能なハードウェア構成要素上で実行されるときに請求項16記載の方法を実施するためのものである、
    プログラム。
JP2019517226A 2016-12-20 2017-12-12 光学的画像データを取得して患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラム Active JP6775680B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102016015121.8 2016-12-20
DE102016015121.8A DE102016015121A1 (de) 2016-12-20 2016-12-20 Vorrichtung, Verfahren und Computerprogramm zur Erfassung von optischen Bilddaten und zur Bestimmung einer Lage einer Seitenbegrenzung einer Patientenlagerungsvorrichtung
PCT/EP2017/082340 WO2018114454A1 (de) 2016-12-20 2017-12-12 Vorrichtung, verfahren und computerprogramm zur erfassung von optischen bilddaten und zur bestimmung einer lage einer seitenbegrenzung einer patientenlagerungsvorrichtung

Publications (2)

Publication Number Publication Date
JP2019536129A true JP2019536129A (ja) 2019-12-12
JP6775680B2 JP6775680B2 (ja) 2020-10-28

Family

ID=60857046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517226A Active JP6775680B2 (ja) 2016-12-20 2017-12-12 光学的画像データを取得して患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラム

Country Status (6)

Country Link
US (1) US10991118B2 (ja)
EP (1) EP3559953B1 (ja)
JP (1) JP6775680B2 (ja)
CN (1) CN110073442B (ja)
DE (1) DE102016015121A1 (ja)
WO (1) WO2018114454A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018115990A1 (de) * 2018-07-02 2020-01-02 Stiegelmeyer Gmbh & Co. Kg Verfahren zur Positionskontrolle von Funktionsteilen eines Kranken- oder Pflegebettes und/oder einer darin befindlichen Person
CN110443978B (zh) * 2019-08-08 2021-06-18 南京联舜科技有限公司 一种摔倒报警设备及方法
CN110806581B (zh) * 2019-10-21 2022-03-29 边缘智能研究院南京有限公司 医疗推车防碰撞检测方法、装置和系统
CN112286036B (zh) * 2020-12-29 2021-03-12 四川写正智能科技有限公司 防溺水智能手表

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) * 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003230491A1 (en) * 2002-04-25 2003-11-10 Wespot Ab Sensor arrangement and method for calibrating the same
US7319386B2 (en) * 2004-08-02 2008-01-15 Hill-Rom Services, Inc. Configurable system for alerting caregivers
WO2010126625A1 (en) * 2009-04-30 2010-11-04 Medtronic, Inc. Patient state detection based on support vector machine based algorithm
US11188589B2 (en) * 2013-03-15 2021-11-30 Wits(Md), Llc. Associating received medical imaging data to stored medical imaging data
ES2743618T3 (es) * 2013-05-21 2020-02-20 Neurovision Imaging Inc Sistema y método para obtener imágenes de una parte del cuerpo del paciente
CA3218381A1 (en) * 2013-09-06 2015-03-12 Stryker Corporation Patient support usable with bariatric patients
DE102013017264A1 (de) 2013-10-17 2015-04-23 Dräger Medical GmbH Verfahren für die Überwachung eines Patienten innerhalb eines medizinischen Überwachungsbereichs
US10754924B2 (en) * 2013-12-11 2020-08-25 Antisep-Tech Ltd. Method and system for monitoring activity of an individual
JP6489117B2 (ja) * 2014-02-18 2019-03-27 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
US9463126B2 (en) * 2014-03-11 2016-10-11 Hill-Rom Services, Inc. Caregiver universal remote cart for patient bed control
US20150293600A1 (en) * 2014-04-11 2015-10-15 Visual Exploration LLC Depth-based analysis of physical workspaces
EP2966581A1 (de) * 2014-07-07 2016-01-13 Siemens Aktiengesellschaft Netzwerksystem und Verfahren zur Steuerung eines Computertomographen
CN106575464B (zh) * 2014-07-07 2020-07-24 皇家飞利浦有限公司 检测要被监测的对象的运动和/或位置
US9396404B2 (en) * 2014-08-04 2016-07-19 Datalogic ADC, Inc. Robust industrial optical character recognition
DE102015013031B4 (de) 2015-10-09 2018-12-27 Drägerwerk AG & Co. KGaA Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung
JP6823160B2 (ja) * 2016-08-24 2021-01-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) * 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Also Published As

Publication number Publication date
EP3559953B1 (de) 2023-05-10
US10991118B2 (en) 2021-04-27
CN110073442B (zh) 2023-05-09
EP3559953A1 (de) 2019-10-30
DE102016015121A1 (de) 2018-06-21
CN110073442A (zh) 2019-07-30
WO2018114454A1 (de) 2018-06-28
JP6775680B2 (ja) 2020-10-28
US20200105010A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6775680B2 (ja) 光学的画像データを取得して患者台装置の側部仕切り部の姿勢を特定するための装置、方法およびコンピュータプログラム
US10095930B2 (en) System and method for home health care monitoring
US10121062B2 (en) Device, system and method for automated detection of orientation and/or location of a person
US9208582B2 (en) Image analyzing system and method
US10134128B2 (en) Device, method and computer program for detecting optical image data of a patient positioning device
KR20160012758A (ko) 영상 진단 보조 장치 및 방법
BE1021528B1 (nl) Valdetectiesysteem en werkwijze voor het detecteren van een val van een bewaakte persoon
SG178270A1 (en) Condition detection methods and condition detection devices
JP6822328B2 (ja) 見守り支援システム及びその制御方法
Mousse et al. Percentage of human-occupied areas for fall detection from two views
US20220044046A1 (en) Device, system and method for object recognition
Stone et al. Silhouette classification using pixel and voxel features for improved elder monitoring in dynamic environments
CN111448589B (zh) 用于检测患者的身体移动的设备、系统和方法
Chang et al. In-bed patient motion and pose analysis using depth videos for pressure ulcer prevention
Martinez et al. “BAM!” depth-based body analysis in critical care
US10853679B2 (en) Monitoring assistance system, control method thereof, and program
Abidin et al. Awakening Event Detection for Fall Prevention Among Bedridden Using Kinect-Like Depth Image
WO2024023893A1 (ja) 人検出装置、人検出システム、プログラム及び人検出方法
Goldstein et al. Chest Area Segmentation in Depth Images of Sleeping Patients
Baek Autonomous patient safety assessment from depth camera based video analysis
As’ari et al. The evaluation of depth image features for awakening event detection
Sghir Modeling Human Motion for Predicting Usage of Hospital Operating Room
Kosmopoulos et al. Automated Pressure Ulcer Lesion Diagnosis: An Initial Study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6775680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250