JP7080389B1 - プログラム、作業着、システム及び方法 - Google Patents

プログラム、作業着、システム及び方法 Download PDF

Info

Publication number
JP7080389B1
JP7080389B1 JP2021180564A JP2021180564A JP7080389B1 JP 7080389 B1 JP7080389 B1 JP 7080389B1 JP 2021180564 A JP2021180564 A JP 2021180564A JP 2021180564 A JP2021180564 A JP 2021180564A JP 7080389 B1 JP7080389 B1 JP 7080389B1
Authority
JP
Japan
Prior art keywords
information
dimensional bar
bar code
image pickup
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021180564A
Other languages
English (en)
Other versions
JP2023069022A (ja
Inventor
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2021180564A priority Critical patent/JP7080389B1/ja
Priority to JP2022084560A priority patent/JP2023070013A/ja
Application granted granted Critical
Publication of JP7080389B1 publication Critical patent/JP7080389B1/ja
Priority to PCT/JP2022/041256 priority patent/WO2023080219A1/ja
Publication of JP2023069022A publication Critical patent/JP2023069022A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/077Constructional details, e.g. mounting of circuits in the carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Toxicology (AREA)
  • Strategic Management (AREA)
  • Electromagnetism (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】医療従事者の挙動を精度良好、かつ低コストに監視可能にする。【解決手段】挙動解析装置10と撮像装置31とを有する挙動解析システム1において、プロセッサを備える挙動解析装置10を動作させるためのプログラムであって、プログラムは、プロセッサに、所定箇所に二次元バーコードを含む識別マーカ34が少なくとも一つ付された手術着33を着用した医療従事者32を含む所定領域を撮像した撮像装置31から撮像情報を受け入れるステップと、撮像情報に基づいて、この撮像情報に含まれる二次元バーコードを特定し、特定した二次元バーコードに対応する医療従事者32の特定部位を判定するステップと、判定した特定部位それぞれにおける、所定時間毎の位置情報を算出するステップとを実行させる。【選択図】 図1

Description

本開示は、プログラム、作業着、システム及び方法に関する。
人体の各所に、赤外線を反射する素材が表面に設けられたマーカを貼り付けた上で、当該人物を赤外線カメラで撮影することで、非常に高い精度で人体各所の位置をトラッキングする技術(光学式モーションキャプチャ)が存在する。また、光学式モーションキャプチャと同様の目的で、LiDAR(Light Detection and Ranging)スキャナにより人体の三次元形状、位置を計測する技術が存在する。
これらの技術を用いることで、人や機器等の動きや位置を精度良く3次元で把握することが可能である。特に、医療分野では、これらの技術を利用し、熟練した医師や看護師の挙動を観測・再現して、これを他の者の学習教材や、手術支援ロボットなど各種医療機器の設定に用いる等のニーズが高まっている。
上述した技術に関連する技術として、例えば特許文献1、特許文献2に開示された技術がある。
特許文献1は、本開示は、人間シェフの動き及び動作を置き換えることによって食品料理を調製するようにロボットに命令するための方法、コンピュータプログラム製品、及びコンピュータシステムに関するものであって、この特許文献1には、人間シェフを監視する段階を有し、この段階は、標準化ロボットキッチン内で実施され、かつロボットキッチン内のロボット又は自動化システムに人間シェフによって調製される料理と規格及び品質に関して同じ料理を調製させることができる環境内の変動及び変化に対してロバストなロボット実行可能コマンドセットを開発するためにセンサとコンピュータとを用いて人間シェフのモーション及び動作を注視、監視、記録、及び解釈する段階を伴う技術が開示されている。
また、特許文献2には、医療現場内のスタッフに予め装着させておいた信号発信体が発信する信号に基づき、この信号発信体の位置を計測すると共にその信号発信体を装着したスタッフを識別し、前記計測された前記信号発信体の位置に基づき、前記信号発信体の映像上での位置を計算し、前記計算された位置に対応させて前記信号発信体が装着された前記スタッフを識別する情報を前記映像に重ね合わせて表示させる技術が開示されている。
特表2017-506169号公報 特開2008-269238号公報
ところが、モーションキャプチャのための赤外線カメラや、LiDARスキャナは高価であり、また、全体のシステム構成としても複雑化しやすいため、導入のハードルは高いものであった。
そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、医療従事者の挙動を精度良好、かつ低コストに監視可能なプログラム、作業着、システム及び方法を提供することにある。
コンピュータと撮像装置とを有する挙動解析システムにおいて、プロセッサを備える前記コンピュータを動作させるためのプログラムである。プログラムはプロセッサに、所定箇所に二次元バーコードを含む識別マーカが少なくとも一つ付された作業着を着用した作業者を含む所定領域を撮像した撮像装置から撮像情報を受け入れるステップと、撮像情報に基づいて、この撮像情報に含まれる二次元バーコードを特定し、特定した二次元バーコードに対応する作業者の特定部位を判定するステップと、判定した特定部位それぞれにおける、所定時間毎の位置情報を算出するステップとを実行させる。
本開示によれば、医療従事者の挙動を、精度良好、かつ低コストに監視可能なプログラム、作業着、システム及び方法を実現することができる。
システムの概要を説明するための図である。 システムの全体の構成を示す図である。 装置の機能的な構成を示す図である。 手術着を示す図である。 識別マーカを示す図である。 データベースのデータ構造を示す図である。 データベースのデータ構造を示す図である。 データベースのデータ構造を示す図である。 データベースのデータ構造を示す図である。 システムにおける処理流れの一例を示すフローチャートである。 モニター装置で表示される画面の一例を表す模式図である。 モニター装置で表示される画面の別の一例を表す模式図である。 モニター装置で表示される画面のまた別の一例を表す模式図である。
以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。
また、以下の説明において、「プロセッサ」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサであるが、GPU(Graphics Processing Unit)のような他種のプロセッサでもよい。少なくとも1つのプロセッサは、シングルコアでもよいしマルチコアでもよい。
また、少なくとも1つのプロセッサは、処理の一部又は全部を行うハードウェア回路(例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサでもよい。
また、以下の説明において、「xxxテーブル」といった表現により、入力に対して出力が得られる情報を説明することがあるが、この情報は、どのような構造のデータでもよいし、入力に対する出力を発生するニューラルネットワークのような学習モデルでもよい。従って、「xxxテーブル」を「xxx情報」と言うことができる。
また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。
また、以下の説明において、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶部及び/又はインタフェース部などを用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。
プログラムは、計算機のような装置にインストールされてもよいし、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体にあってもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
また、以下の説明において、種々の対象の識別情報として、識別番号が使用されるが、識別番号以外の種類の識別情報(例えば、英字や符号を含んだ識別子)が採用されてもよい。
また、以下の説明において、同種の要素を区別しないで説明する場合には、参照符号(又は、参照符号のうちの共通符号)を使用し、同種の要素を区別して説明する場合は、要素の識別番号(又は参照符号)を使用することがある。
また、以下の説明において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
<0 挙動解析システム1の概要>
図1は、本開示に係る挙動解析システム1の全体の構成を示す図である。本開示の挙動解析システム1は、例えば病院の手術室等における医師を含めた医療従事者の挙動を解析するためのシステムである。当然、本開示の挙動解析システム1が対象とする作業者の挙動は医療従事者の挙動に限定されない。一例として、工場内の作業者の挙動、運送会社の運送者の挙動など、挙動を解析、再現するニーズがある作業者の挙動を解析するシステムに好適に適用可能である。
本開示の挙動解析システム1では、医療従事者が作業を行う手術室30等の作業室の所定箇所(図1では手術室30の天井)に複数の撮像装置31を設置する。撮像装置31は手術室30内の所定の撮像領域(好ましくは手術室30全体)が撮像可能となるように、その設置位置及び撮像方向、画角等が設定されている。少なくとも、撮像装置31は、手術室30内で作業を行う医療従事者32が複数の撮像装置31(好ましくは3台以上の撮像装置31)の撮像領域内で作業を行うように、その設置位置及び撮像方向、画角が設定されている。
手術室30内で作業を行う医療従事者32は、手術着33に代表される作業着を着用している。この手術着33の外面には、二次元バーコードを含む識別マーカ34が複数設けられている。個々の識別マーカ34の二次元バーコードには、医療従事者32の特定部位、一例として頭、肘等を表す識別情報が埋め込まれている。さらに、手術着33に付された複数の識別マーカ34のうち、少なくとも一つの識別マーカ34の二次元バーコードには、医療従事者32を特定するための個人特定情報、一例として医療従事者32の氏名、所属等が埋め込まれている。
撮像装置31は、手術室30内で作業を行う医療従事者32を含む手術室30内を撮像する。撮像装置31による撮像動作の結果撮像装置31が取得する撮像情報(撮像データ)は、エッジサーバ20及びネットワーク80を経由して挙動解析装置10に送出される。
撮像装置31からの撮像情報を受信した挙動解析装置10は、この撮像情報から、識別マーカ34に含まれる二次元バーコードを特定し、この二次元バーコードに含まれる識別情報を抽出する。次に、挙動解析装置10は、この識別情報に紐付けられた医療従事者32の特定部位を判定し、この特定部位の手術室30内における位置情報(好ましくは手術室30に設けられた3次元座標空間における座標値)を算出し、この位置情報に基づいて、医療従事者32の身体各部の動作の軌跡を特定する。そして、挙動解析装置10は、医療従事者32の身体各部の軌跡を、この医療従事者32の挙動情報として出力する。
なお、挙動解析装置10は、撮像装置31が設置された手術室30を有する建物と同一の建物内に設けられてもよいし、建物外に設けられてもよい。
<1 システム全体の構成図>
図2は、挙動解析システム1の全体構成の例を示すブロック図である。図2に示す挙動解析システム1は、例えば、挙動解析装置10、エッジサーバ20、撮像装置31、およびモニター装置21を含む。挙動解析装置10、エッジサーバ20、およびモニター装置21は、例えば、ネットワーク80を介して通信接続する。
図2において、挙動解析システム1が撮像装置31を4台含む例を示しているが、挙動解析システム1に含まれる撮像装置31の数は、4台に限定されない。
本実施形態において、複数の装置の集合体を1つの挙動解析装置10としてもよい。1つまたは複数のハードウェアに対して本実施形態に係る挙動解析装置10を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力および/または挙動解析装置10に求められる仕様等に鑑みて適宜決定することができる。
挙動解析装置10は、撮像装置31から取得した撮像情報を解析する。挙動解析装置10は、撮像装置31から取得した撮像情報を解析することで、手術室30内において作業を行う医療従事者32の特定部位毎の所定時間毎の位置情報を算出し、この位置情報に基づいて医療従事者32の身体各部の軌跡を特定してこの軌跡を挙動情報として出力する。
挙動解析装置10は、例えば、ネットワーク80に接続されたコンピュータにより実現される。図1に示すように、挙動解析装置10は、通信IF12と、入出力IF13と、メモリ15と、ストレージ16と、プロセッサ19とを備える。
通信IF12は、挙動解析装置10が、例えば、モニター装置21等のシステム1内の装置と通信するため、信号を入出力するためのインタフェースである。
入出力IF13は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対して情報を提示するための出力装置とのインタフェースとして機能する。
メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。
ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDDである。
プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
エッジサーバ20は、撮像装置31から送信される情報を受信し、受信した情報を、挙動解析装置10に送信する。また、エッジサーバ20は、挙動解析装置10から取得した情報を撮像装置31へ送信する。挙動解析装置10から取得する情報には、例えば、撮像装置31の設定を更新するための情報等が含まれる。
撮像装置31は、受光素子により光を受光し、画像データとして出力するためのデバイスである。撮像装置31は、例えば、所定の画角で映像を撮影可能なカメラである。撮像装置31は、例えば、全周360度の広範囲映像を撮影可能なカメラであってもよい。撮像装置31は、例えば、超広角レンズ、または魚眼レンズ付きカメラ等により実現される。
撮像装置31は、例えば、病院等の建物の内部にある手術室30等の作業室等の室内に設置されたカメラであって、作業室内の撮像領域を撮像する。具体的には、例えば、撮像装置31は、オフィス、シェアオフィス、スポーツジム、病院、リハビリ施設、介護施設、教育施設、または託児施設等の天井に設置されている。例えば、撮像領域は、上述した施設の一室、又は一室のうちの所定の領域である。撮像装置31は複数台設置される。撮像装置31が複数台設置される場合、例えば、1台の撮像装置31の撮像領域が互いに重複するように設置され、これにより、作業室内で作業を行う医療従事者32を複数台の撮像装置31により撮像することができる。撮像装置31は、取得した撮像情報(撮像データ)をエッジサーバ20へ出力する。
撮像装置31は、他の装置に取り付けられたカメラであってもよい。具体的に、例えば、撮像装置31は、他の装置として、建物等の内部にある作業室等の室内に設置された空調装置に含まれるカメラ、ドローンに取り付けられたカメラ等であってもよい。なお、撮像領域は建物の屋外であってもよいし、撮像装置31の動きに合わせて撮像領域が変化してもよい。
モニター装置21は、ユーザに対して情報を提示するための装置であって、ディスプレイ、スピーカー等を備える。例えば、モニター装置21は、撮像装置31が設置された建物等の室内に設置される。
<1.2 挙動解析装置10の機能的な構成>
図3は、挙動解析装置10の機能的な構成の例を示す図である。図3に示すように、挙動解析装置10は、通信部101と、記憶部102と、制御部103としての機能を発揮する。
通信部101は、挙動解析装置10が外部の装置と通信するための処理を行う。
記憶部102は、例えば、識別情報データベース(DB)1021と、位置情報DB1022と、個人特定情報DB1023と、軌跡DB1024等とを有する。
識別情報DB1021は、二次元バーコードに埋め込まれた識別情報と、この識別情報に紐付けられた作業者(医療従事者32)の特定部位との関係を記述したデータベースである。詳細は後述する。
位置情報DB1022は、識別情報と、この識別情報が作業室(手術室30)内に定められた3次元座標空間の座標に位置したかを時系列で管理するためのデータベースである。詳細は後述する。
個人特定情報DB1023は、二次元バーコードに埋め込まれた個人特定情報と、この個人特定情報が紐付けられた医療従事者32の個人情報との関係を記述したデータベースである。詳細は後述する。
軌跡DB1024は、個人特定情報と識別情報とで特定される、特定の医療従事者32の特定部位が、作業室(手術室30)内に定められた3次元座標空間の座標に位置したか、すなわち特定部位の軌跡を時系列で管理するためのデータベースである。
制御部103は、プロセッサ19が記憶部102に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部103は、プログラムに従って動作することにより、受信制御モジュール1031、送信制御モジュール1032、画像データ取得モジュール1033、識別情報抽出モジュール1034、特定部位判定モジュール1035、位置情報算出モジュール1036、軌跡算出モジュール1037、および、挙動情報算出モジュール1038として示す機能を発揮する。
受信制御モジュール1031は、挙動解析装置10が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール1032は、挙動解析装置10が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
画像データ取得モジュール1033は、撮像装置31から出力される撮像情報(撮像データ)を、直接またはエッジサーバ20を介して取得し、画像データとして記憶部202に一時的に保管する。この際、撮像装置31が超広角レンズ付きカメラ等である場合、画像データ取得モジュール1033は、撮像装置31から取得した画像データに対し、レンズ歪みを補正する、いわゆるオルソ補正を施す。
識別情報抽出モジュール1034は、画像データ取得モジュール1033が作成した画像データを解析し、この画像データ中に含まれる識別マーカ34を検出する。次いで、識別情報抽出モジュール1034は、検出した識別マーカ34に含まれる二次元バーコードの内容を読み取り、この二次元バーコードから識別情報を抽出する。加えて、識別情報抽出モジュール1034は、二次元バーコードに個人特定情報が含まれる場合、この個人特定情報を抽出する。識別情報抽出モジュール1034によるこれら動作は、画像データ取得毎に行う必要はない(行ってもよい)が、後述する軌跡算出モジュール1037による軌跡特定動作をできるだけリアルタイムに行う必要性を考慮すると、所定時間毎(例えば1秒毎)に行うことが好ましい。
識別情報抽出モジュール1034による識別マーカ34の検出手法は、周知の検出方法から任意に選択可能である。
一例として、二次元バーコードがISO/IEC 18004に定められる、いわゆるQRコード(登録商標)であれば、このQRコードには、中心をあらゆる角度で横切る走査線において同じ周波数成分比が得られるパターンからなる切り出しシンボルが、QRコードを構成する略正方形状の領域の4つの頂点の内、少なくとも2箇所、通常は3箇所に配置されている(参照:特許第2867904号公報、特許第2938338号公報など)。
そこで、識別情報抽出モジュール1034は、画像データを特定の一方向(例えば画像データの水平方向)に走査した一次元の走査データをこの画像データから複数個取り出し、走査データを所定の閾値を用いて二値化し、二値化した走査データの中から、切り出しシンボルに特有の周波数成分比を有する信号列を検索する。そして、信号列が一対検索できたら、識別情報抽出モジュール1034は、これら信号列の間にQRコードが存在すると判定して、QRコードに対応する領域の画像データを抽出画像データとして出力する。
あるいは、識別情報抽出モジュール1034は、学習済みモデルを用いて識別マーカ34を検出してもよい。
学習済みモデルは、モデル学習プログラムに従い、機械学習モデルに機械学習を行わせることで生成されるモデルである。学習済みモデルは、例えば、入力されるデータに基づき、所定の推論を実施する、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数およびパラメータの組合せにより定義される。本実施形態に係る学習済みモデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。
例えば、学習済みモデルが順伝播型の多層化ネットワークを用いて生成される場合、パラメータ付き合成関数は、例えば、重み行列を用いた各層間の線形関係、各層における活性化関数を用いた非線形関係(または線形関係)、およびバイアスの組み合わせとして定義される。重み付行列、およびバイアスは、多層化ネットワークのパラメータと呼ばれる。パラメータ付き合成関数は、パラメータをどのように選ぶかで、関数としての形を変える。多層化ネットワークでは、構成するパラメータを適切に設定することで、出力層から好ましい結果を出力することが可能な関数を定義することができる。
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。
学習済みモデルは、画像データが入力されると、入力された画像データに基づき、所定の情報を出力するように学習されたモデルである。学習済みモデルは、例えば、出力する情報に応じ、それぞれ別々の学習用データによりトレーニングされた別々の学習済みモデルである。
例えば、学習済みモデルは、画像データが入力されると、対象を含む所定の領域の画像を抽出するように学習される。具体的には、本実施形態では、学習済みモデルは、例えば、二次元バーコードを含む画像を入力データとし、当該画像内の二次元バーコードの位置を正解出力データとして学習されている。つまり、対象としての二次元バーコードを含む画像が入力されると、その内容が含まれる画像内の位置を特定し、対象を含む所定の領域の画像を抽出画像データとして出力するように学習されている。なお、学習済みモデルは、対象として二次元バーコード以外の対象を含む所定の領域を正解出力データとして学習されてもよい。
また、例えば、学習済みモデルは、画像データが入力されると、対象を推定した情報を出力するように学習される。具体的には、本実施形態では、学習済みモデルは、例えば、対象を特定可能な画像を入力データとし、当該画像から特定される対象を指定する情報を正解出力データとして学習されている。
この際、識別情報抽出モジュール1034は、いわゆる深層学習を用いた物体検出技術を用いて二次元バーコードを検出してもよい。物体検出のアルゴリズムとしては、領域ベースの畳み込みニューラルネットワーク (Region Based Convolutional Neural Networks,:R-CNN)(含むFast R-CNN、Faster R-CNN)、YOLO(You Only Look Once)、SSD(Single Shot Multibox Detector)などが挙げられる。
識別情報抽出モジュール1034は、二次元バーコードを含む所定の領域の画像を抽出画像データとして出力する。抽出画像データは、例えば、画像データにおける領域の位置を表すデータであり、例えば、ピクセルの位置情報等により表される。
次に、識別情報抽出モジュール1034は、抽出画像データに含まれる二次元バーコードの内容(コード)を読み取り、読み取った内容から識別情報を抽出する。二次元バーコードの内容を読み取る手法は、例えばQRコードであれば上述した特許公報に開示された手法に基づけば良い。さらに、識別情報抽出モジュール1034は、二次元バーコードから読み取った内容に個人特定情報が含まれている場合、この個人特定情報を抽出する。個人特定情報の抽出手法は、上述した識別情報の抽出手法と同様である。識別情報及び個人特定情報の詳細については後述する。
特定部位判定モジュール1035は、識別情報抽出モジュール1034が抽出した識別情報と、識別情報DB1021に格納されている識別情報と特定部位との対応付けとに基づいて、二次元バーコードが示す医療従事者32の特定部位を判定する。特定部位判定モジュール1035の動作も、後述する軌跡算出モジュール1037による軌跡特定動作をできるだけリアルタイムに行う必要性を考慮すると、所定時間毎(例えば1秒毎)に行うことが好ましい。
位置情報算出モジュール1036は、特定部位判定モジュール1035により判定された医療従事者32の特定部位の画像データ内における撮像位置に基づいて、医療従事者32の特定部位の位置情報を算出する。この際、位置情報算出モジュール1036は、所定時間毎(例えば1秒毎)に医療従事者32の特定部位の位置情報を算出する。これは、後述する軌跡算出モジュール1037による軌跡特定動作をできるだけリアルタイムに行う必要性を考慮するためである。そして、位置情報算出モジュール1036は、算出した特定部位の位置情報の結果を位置情報DB1022に書き込む。
特定部位の位置情報は、撮像装置31の手術室30内での位置情報及び撮像領域が予め定められているので、複数の撮像装置31から得られる画像データ中の撮像位置から求めることができる。一例として、画像データが2次元的に広がりを持つ複数の画素からなるデータであれば、特定部位に紐付けられた二次元バーコードの識別情報はいずれかの画素に含まれる。従って、撮像装置31の手術室30内での位置情報及び撮像領域を用いれば、この画素の2次元位置(画素の2次元座標値)を手術室30がある3次元座標空間に射像することで、識別情報が存在する手術室30内の3次元位置(3次元座標値)を求めることができる。この場合、画像データが1つのみであると3次元位置が一意に定まらないので、同一の識別情報を複数の撮像装置31で撮像し、複数の撮像装置31から得られる複数の画像データを参照することで、識別情報、さらには医療従事者32の特定部位の手術室30内における3次元位置(3次元座標値)を求めることができる。
軌跡算出モジュール1037は、位置情報算出モジュール1036が算出した所定時間毎の特定部位の位置情報に基づき、手術室30内における医療従事者32の身体各部の軌跡を特定する。好ましくは、軌跡算出モジュール1037は、手術室30内における医療従事者32の特定部位の軌跡を特定する。そして、軌跡算出モジュール1037は、特定した軌跡に関する情報を軌跡DB1024に書き込む。
一例として、位置情報算出モジュール1036が算出した所定時間毎の特定部位の位置情報は、手術室30内における3次元座標値の点群であるから、軌跡算出モジュール1037は、この点群を結ぶ(あるいは近傍を通る)軌跡を特定する。軌跡特定手法は周知のものから任意に選択可能であるが、一番単純な手法は、点群を時系列的に連結した、つまり折れ線からなる軌跡を特定する手法である。他に、点群を曲線当てはめ(カーブフィッティング)の手法を用いて多項式近似を行い、この多項式近似の結果を軌跡として特定する手法が挙げられる。このような曲線当てはめの手法としては、最小二乗法によるものがある。
挙動情報算出モジュール1038は、軌跡算出モジュール1037により特定された医療従事者32の身体各部の軌跡に基づいて、医療従事者32の挙動情報を出力する。ここにいう挙動情報とは、一例として、軌跡算出モジュール1037により特定された特定部位の軌跡を一人の医療従事者32単位でまとめ、この医療従事者32の挙動としたものである。
この際、挙動情報算出モジュール1038は、特定部位の位置情報に基づいて医療従事者32の骨格モデルを生成し、この骨格モデルを構成する骨格の動きを挙動情報として出力してもよい。ここにいく骨格モデルとは実際の人体の骨格モデルほど詳細なものである必要はなく、背骨、腕、足を構成するモデルといった単純なものであってもよい。
さらに、挙動情報算出モジュール1038が骨格モデルに基づいて挙動情報を出力する際、特定部位と骨格モデルとの関係を考慮して挙動情報を出力してもよい。具体的には、医療従事者32の手術着33に付される識別マーカ34の数を多くすると、医療従事者32の手術室30内での動作に影響を及ぼす可能性があるため、手術着33に付される識別マーカ34には一定の制限がありうる。一例として、一般的な手術着33は、作業性の確保及び消毒作業の容易性を考慮して、腕を全て覆うタイプのものは少ない。従って、手指に近い箇所の手術着33に識別マーカ34を付すことは難しい。同様に、撮像装置31による撮像範囲を考慮すると、医療従事者32の足先に識別マーカ34を付すことも難しい。医療従事者32は手術室30内で様々な作業を行っており、また、ベッド、医療機器等数多くの装置が手術室30内に存在しうることから、仮に医療従事者32の足先に識別マーカ34を付しても、医療従事者32や各種装置により医療従事者32の足先を撮像装置31が確実に撮像できる保証はない。このため、手術着33に付される識別マーカ34には一定の制限がありうる。一方で、医療従事者32の挙動情報をできるだけ正確に行うには、手術着33に付される識別マーカ34の数を多くすることが好ましい。そこで、挙動情報算出モジュール1038は、特定部位と骨格モデルとの関係を考慮して、この骨格モデルに基づいて、特定部位の位置情報の算出が困難な特定部位(上述の例であれば手指に近い箇所や足先に近い箇所)についても挙動情報を算出することができる。
医療従事者32単位でまとめる際に、挙動情報算出モジュール1038は、識別情報抽出モジュール1034が抽出した個人特定情報に基づいて、個人特定情報DB1023を参照して、同一の個人特定情報に関連する特定部位の軌跡を、一人の医療従事者32の特定部位の軌跡であるとしてまとめる。
なお、後述するように、識別マーカ34に含まれる二次元バーコードの全てに個人特定情報が含まれているとは限らないので、挙動情報算出モジュール1038は、特定部位の軌跡を骨格モデルにあてはめ、一つの骨格モデルに合致する特定部位の軌跡は一人の医療従事者32の特定部位の軌跡であるとしてまとめることができる。
<2 データ構造>
図6~図9は、挙動解析装置10が記憶するデータベースのデータ構造を示す図である。なお、図6~図9は一例であり、記載されていないデータを除外するものではない。
図6は、識別情報DB1021のデータ構造を示す図である。図6に示すように、識別情報DB1021のレコードの各々は、例えば、項目「識別情報ID」と、項目「特定部位」とを含む。識別情報DB1021に記憶された情報は、挙動解析システム1の管理者等によってあらかじめ登録された情報である。識別情報DB1021が記憶する情報は、適宜変更・更新することが可能である。
項目「識別情報ID」は、識別マーカ34に含まれる二次元バーコードに埋め込まれた識別情報を示す。項目「特定部位」は、識別情報IDに紐付けられた医療従事者の特定部位の名称を示す。図6に示す例では、特定部位が「頭」、「肩」、「肘」である場合が示されている。特定部位は、「左肩」、「右肩」、「左肘」、「右肘」のように、左右が把握可能に設定されていてもよい。
図7は、位置情報DB1022のデータ構造を示す図である。図7に示すように、位置情報DB1022のレコードの各々は、例えば、項目「識別情報ID」と、項目「検出時間」と、項目「X座標」と、項目「Y座標」と、項目「Z座標」とを含む。位置情報DB1022に記憶された情報のうち、項目「検出時間」と、項目「X座標」と、項目「Y座標」と、項目「Z座標」とは位置情報算出モジュール1036により登録される情報である。位置情報DB1022が記憶する情報は、適宜変更・更新することが可能である。
項目「識別ID」は、識別マーカ34に含まれる二次元バーコードに埋め込まれた識別情報を示す。項目「検出時間」は、位置情報(項目「X座標」~「Z座標」)が検出された時刻に関する情報を示す。項目「X座標」~「Z座標」はそれぞれ、検出された特定部位の位置情報である手術室30内の3次元座標値を示す。
図8は、個人特定情報DB1023のデータ構造を示す図である。図8に示すように、個人特定情報DB1023のレコードの各々は、例えば、項目「個人特定情報ID」と、項目「個人情報」とを含む。個人特定情報DB1023に記憶された情報は、挙動解析システム1の管理者等によってあらかじめ登録された情報である。個人特定情報DB1023が記憶する情報は、適宜変更・更新することが可能である。
項目「個人特定情報ID」は、識別マーカ34に含まれる二次元バーコードに埋め込まれた個人特定情報を示す。項目「個人情報」は、個人特定情報IDに紐付けられた医療従事者32の個人情報(ここでは医療従事者32の氏名)を示す。
図9は、軌跡DB1024のデータ構造を示す図である。図9に示すように、軌跡DB1024のレコードの各々は、例えば、項目「軌跡ID」と、項目「個人特定情報ID」と、項目「識別情報ID」と、項目「X座標」と、項目「Y座標」と、項目「Z座標」とを含む。軌跡DB1024に記憶された情報は、位置情報DB1022に基づいて軌跡算出モジュール1037により登録される情報である。軌跡DB1024が記憶する情報は、適宜変更・更新することが可能である。
項目「軌跡ID」は、軌跡算出モジュール1037により特定された医療従事者32の身体各部の軌跡を特定するための情報を示す。項目「個人特定情報ID」は、識別マーカ34に含まれる二次元バーコードに埋め込まれた個人特定情報を示す。項目「識別情報ID」は、識別マーカ34に含まれる二次元バーコードに埋め込まれた識別情報を示す。項目「検出時間」は、位置情報(項目「X座標」~「Z座標」)が検出された時刻に関する情報を示す。項目「X座標」~「Z座標」はそれぞれ、検出された特定部位の位置情報である手術室30内の3次元座標値を示す。項目「軌跡ID」で特定される軌跡は特定の(言い換えれば単一の)項目「個人特定情報ID」及び項目「識別情報ID」に紐付けられ、さらに、位置情報である項目「X座標」~「Z座標」の複数の組に紐付けられている。これら位置情報である項目「X座標」~「Z座標」の複数の組が医療従事者32の特定部位の軌跡に相当する。
<3 手術着33の構成>
図4は、本実施形態の挙動解析システム1で用いられる手術着33の一例を示す平面図である。
図4に示す手術着33は、医療従事者32が上半身に着用するスクラブと呼ばれる上衣33aと、医療従事者32が下半身に着用するスラックス33bと、医療従事者32が頭に着用する帽子33cとを有する。なお、図4に示す手術着33は一例である。一例として、図4に示すスクラブ33aは半袖タイプであるが、7分袖、長袖タイプであってもよい。また、スクラブ33aの丈も図4に示す例に限定されない。
手術着33の外面には、医療従事者32の特定部位に対応する位置に識別マーカ34が付着されている。図4に示す例では、医療従事者32の胸、腕(正確には肘に近い箇所の上腕)、膝、及び頭頂に識別マーカ34が付されている。当然、識別マーカ34を設ける箇所(特定部位)、及び識別マーカ34の個数は任意であり、挙動解析装置10により解析すべき医療従事者32の挙動の内容及び精度に基づいて適宜決定されれば良い。
識別マーカ34を手術着33の外面に付着させる手法も任意である。一例として、識別マーカ34に含まれる二次元バーコードの裏面、あるいは手術着33の外面の特定部位に対応する領域に面ファスナーを設け、この面ファスナーにより二次元バーコードを手術着33に対して着脱自在に設けてもよい。また、二次元バーコードが印刷等された布を手術着33に縫い付けてもよい。少なくとも、個人特定情報が埋め込まれた二次元バーコードについては手術着33に対して着脱自在に設けることが好ましい。
少なくとも個人特定情報が埋め込まれた二次元バーコードを手術着33に対して着脱自在に設けることで、ある手術着33を複数の医療従事者32が順次着用する場合であっても、医療従事者32は自身の個人特定情報が埋め込まれた二次元バーコードを着用時に手術着33に貼り付けることができる。これにより、ある手術着33を複数の医療従事者32が利用することができ、合理的な手術着33の運用が可能となる。当然、手術等の作業毎に手術着33は洗濯、クリーニングされており、清潔な段階で個人特定情報が埋め込まれた二次元バーコードを貼り付けることになる。また、着脱自在な二次元バーコードについても適宜洗濯、クリーニングすることが好ましい。
図5は、本実施形態の挙動解析システム1で用いられる識別マーカ34の一例を示す図である。
図5に示す識別マーカ34には、2つの二次元バーコード(図5に示す例ではQRコード)35a、35bが設けられている。一方の二次元バーコード35aには、医療従事者32の特定部位を表す識別情報と、医療従事者32の個人特定情報とが埋め込まれている。この二次元バーコード35aについては、識別マーカ34に対して着脱自在にも受けられている。もう一方の二次元バーコード35bには、医療従事者32の特定部位を表す識別情報が埋め込まれている。識別マーカ34に含まれる二次元バーコード35a、35bの個数も任意である。
また、識別情報及び個人特定情報のうち、少なくとも識別情報については一つの二次元バーコードに複数個埋め込まれている。一つの二次元バーコードに複数個の識別情報を埋め込むことにより、仮に撮像装置31により二次元バーコードの一部しか撮像できなかった場合であっても、この撮像データから識別情報抽出モジュール1034が確実に識別情報を抽出することができる。
当然、一つの識別マーカ34に、医療従事者32の特定部位を表す識別情報と、医療従事者32の個人特定情報とが埋め込まれた二次元バーコード35aを複数個設けてもよい。また、医療従事者32の特定部位を表す識別情報と、医療従事者32の個人特定情報とが埋め込まれた二次元バーコード35aが、手術着33に設けられた識別マーカ34のいずれか一つに設けられていれば、他の識別マーカ34については、医療従事者32の特定部位を表す識別情報が埋め込まれた二次元バーコード35bのみ設けられていてもよい。
さらに、図5では1つの識別マーカ34に複数種類の二次元バーコード35a、35bが設けられているが、同一種類の二次元バーコード35a(または35b)が複数設けられていてもよい。同一種類の二次元バーコード35a(または35b)を識別マーカ34に複数設けると、仮に撮像装置31により識別マーカ34の一部しか撮像できなかった場合でも、複数の二次元バーコード35a、35bのうちいずれか1つの二次元バーコード35a、35bが撮像できていれば、この撮像データから識別情報抽出モジュール1034が確実に識別情報を抽出することができる。
<4 動作例>
以下、挙動解析装置10の動作の一例について説明する。
図10は、挙動解析装置10の動作の一例を表すフローチャートである。図10は、撮像装置31で撮像された撮像データに基づき、医療従事者32の挙動情報を得る際の動作の例を表すフローチャートである。
まず、撮像装置31は、例えば、動画として一連の動きを認識可能な程度のフレームレートで監視対象エリアとしての手術室30内を撮像している。動画として一連の動きを認識可能程度のフレームレートとは、例えば、30fps程度である。撮像装置31は、撮像データを、エッジサーバ20を介して挙動解析装置10へ送信する。なお、撮像装置31は、画像データを、挙動解析装置10へ直接送信してもよい。
ステップS11において、制御部103は、撮像装置31により撮影された撮像データを取得する処理を行う。具体的には、例えば、制御部103は、画像データ取得モジュール1033により撮像データを取得し、必要な場合は所定の画像処理を行って画像データを取得する。画像データ取得モジュール1033により取得された画像データは、記憶部102等において記憶される。制御部103は、画像データを識別情報抽出モジュール1034へ出力する。
ステップS12において、制御部103は、画像データを解析し、画像データ中に含まれる識別マーカ34を検出し、さらにこの識別マーカ34に含まれる二次元バーコードを特定する。具体的には、例えば、制御部103は、識別情報抽出モジュール1034により画像データを解析し、画像データ中に含まれる識別マーカ34を検出する。次いで、識別情報抽出モジュール1034は、検出した識別マーカ34に含まれる二次元バーコードを特定する。
ステップS13において、制御部103は、ステップS12で検出した二次元バーコードから識別情報を抽出する。具体的には、例えば制御部103は、識別情報抽出モジュール1034により、ステップS12で抽出した二次元バーコードの内容(コード)を読み取り、読み取った内容から識別情報を抽出する。識別情報抽出モジュール1034により取得された識別情報は、記憶部102等において記憶される。
ステップS14において、制御部103は、ステップS12で検出した二次元バーコードに個人特定情報が含まれている場合は、この二次元バーコードから個人特定情報を抽出する。具体的には、例えば制御部103は、識別情報抽出モジュール1034により、ステップS12で抽出した二次元バーコードの内容(コード)を読み取り、読み取った内容に個人特定情報が含まれている場合、この個人特定情報を抽出する。識別情報抽出モジュール1034により取得された個人特定情報は、記憶部102等において記憶される。
ステップS15において、制御部103は、ステップS13において抽出した識別情報に基づいて、二次元バーコードが示す医療従事者32の特定部位を判定する。具体的には、例えば、制御部103は、特定部位判定モジュール1035により、ステップS13において抽出した識別情報と、識別情報データベース1021に格納されている識別情報と特定部位との対応付けに基づいて、二次元バーコードが示す医療従事者32の特定部位を判定する。特定部位判定モジュール1035により判定された特定部位は、記憶部102等において記憶される。
ステップS16において、制御部103は、ステップS15において判定された特定部位の位置情報を算出する。具体的には、例えば、制御部103は、位置情報算出モジュール1036により、ステップS15において判定された医療従事者32の特定部位の、画像データ内における撮像位置に基づいて、医療従事者32の特定部位の位置情報を算出する。位置情報算出モジュール1036により算出された特定部位の位置情報は、記憶部102等において記憶される。
ステップS17において、制御部103は、ステップS16において算出された医療従事者32の特定部位の位置情報に基づいて手術室30内における医療従事者32の身体各部の軌跡を特定する。具体的には、例えば、制御部103は、軌跡算出モジュール1037により、ステップS16において算出した医療従事者32の特定部位の位置情報に基づいて、手術室30内における医療従事者32の身体各部の軌跡を算出する。好ましくは、軌跡算出モジュール1037は、手術室30内における医療従事者32の特定部位の軌跡を算出する。
ステップS18において、制御部103は、ステップS17において特定された医療従事者32の身体各部の軌跡に基づいて、医療従事者32の挙動情報を出力する。具体的には、例えば、制御部103は、挙動情報算出モジュール1038により、ステップS17において特定された医療従事者32の身体各部の軌跡に基づいて、医療従事者32の挙動情報を出力する。この際、挙動情報算出モジュール1038は、ステップS14において抽出した個人特定情報に基づいて、同一の個人特定情報に関連する特定部位の軌跡を身体各部の軌跡としてまとめ、医療従事者32単位の挙動情報を出力する。
さらに、制御部103は、医療従事者32の挙動情報を出力装置に出力する。具体的には、例えば、制御部103は、挙動情報算出モジュール1038により、挙動情報を挙動解析装置10、又はモニター装置21に提示させる。
<5 画面例>
以下、挙動解析装置10(含むモニター装置21)から出力される画面の一例を、図11~図13を参照して説明する。
図11は、モニター装置21で表示される画面の一例を表す模式図である。ここでは、挙動情報算出モジュール1038は、医療従事者32の挙動情報を出力する前提として、位置情報算出モジュール1036が算出した医療従事者32の特定部位の位置情報に基づく、医療従事者32の骨格モデル1100をモニター装置21に出力している。
図12は、モニター装置21で表示される画面の別の一例を表す模式図である。ここでは、挙動情報算出モジュール1038は、位置情報算出モジュール1036が算出した医療従事者32の特定部位の位置情報に基づく、複数の測定時間における医療従事者32の骨格モデル1100をモニター装置21に出力している。時間変動に伴い、医療従事者32の特定部位の位置情報が異なることによる骨格モデル1100が変動した箇所を点線1101で示す。
図13は、モニター装置21で表示される画面のまた別の一例を表す模式図である。ここでは、挙動情報算出モジュール1038は、医療従事者32の挙動情報を、軌跡算出モジュール1037により算出された医療従事者32の特定部位の軌跡1102を骨格モデル1100に重畳して表示することで、挙動情報をモニター装置21に出力している。
なお、図11~図13に示す画面例はあくまでも一例であり、挙動情報等はこれら画面例のものに限定されない。
<6 実施形態の効果>
以上詳細に説明したように、本実施形態の挙動解析システム1によれば、手術着33に付された識別マーカ34の二次元バーコードに基づいて医療従事者32の特定部位の位置情報を算出し、この位置情報に基づいて医療従事者32の身体各部の軌跡を算出し、この軌跡を医療従事者32の挙動情報として出力しているので、医療従事者32の監視、解析を精度良くかつ低コストで実現することができる。
<7 付記>
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
以上の各実施形態で説明した事項を以下に付記する。
(付記1)
コプロセッサ(19)と、メモリ(15)とを備えるコンピュータ(10)を動作させるためのプログラムであって、プログラムは、プロセッサ(19)に、所定箇所に二次元バーコード(35a,35b)を含む識別マーカ(34)が少なくとも一つ付された作業着(33)を着用した作業者(32)を含む所定領域を撮像した撮像装置(31)から撮像情報を受け入れるステップ(S11)と、撮像情報に基づいて、この撮像情報に含まれる二次元バーコード(35a,35b)を特定し、特定した二次元バーコード(35a,35b)に基づいて所定箇所に対応する作業者(32)の特定部位を判定するステップ(S15)と、判定した特定部位それぞれにおける、所定時間毎の位置情報を算出するステップ(S16)とを実行させるプログラム。
(付記2)
位置情報に基づいて作業者(32)の身体各部の軌跡(1102)を特定するステップ(S17)と、軌跡(1102)を作業者(32)の挙動情報として出力するステップ(S18)とをさらに実行させる付記1に記載のプログラム。
(付記3)
二次元バーコード(35a,35b)には識別情報が埋め込まれ、この識別情報は、特定の作業者(32)の特定部位と予め紐付けされている付記1または2に記載のプログラム。
(付記4)
識別情報は二次元バーコード(35a,35b)に複数個埋め込まれている付記3に記載のプログラム。
(付記5)
算出するステップにおいて、二次元バーコード(35a,35b)から識別情報を抽出し、抽出した識別情報から作業者(32)の特定部位を判定し、その位置情報を算定する付記3または4に記載の挙動解析システム。
(付記6)
識別マーカ(34)には複数の二次元バーコード(35a、35b)が設けられている付記1~5のいずれかに記載のプログラム。
(付記7)
作業着(33)には複数の識別マーカ(34)が付されており、これら識別マーカ(34)に含まれる二次元バーコード(35a,35b)のうち少なくとも一つには、作業者(32)を特定可能な個人特定情報が含まれている付記1~6のいずれかに記載の挙動解析システム。
(付記8)
着用者(32)の肩、及び肘を含む体の部位を一意に示す識別情報が埋め込まれた二次元バーコード(35a,35b)を含む識別マーカ(34)が、体の部位と対応する位置にそれぞれ付される作業着(33)。
(付記9)
識別情報は、この識別情報が埋め込まれた二次元バーコード(35a,35b)に複数個埋め込まれている付記8に記載の作業着(33)。
(付記10)
識別情報は、情報処理装置(10)において二次元バーコード(35a,35b)から抽出され、抽出された識別情報により着用者(32)の部位が判定され、部位の位置情報が算出されることで着用者(32)の身体各部の軌跡(1102)が特定される付記8または9に記載の作業着(33)。
(付記11)
識別マーカ(34)には複数の二次元バーコード(35a、35b)が設けられている付記8~10のいずれかに記載の作業着。
(付記12)
作業着(33)には複数の識別マーカ(34)が付されており、これら識別マーカ(34)に含まれる二次元バーコード(35a,35b)のうち少なくとも一つには、着用者(32)を特定可能な個人特定情報が含まれている付記8~11のいずれかに記載の作業着(33)。
(付記13)
個人特定情報が含まれた二次元バーコード(35a,35b)を有する識別マーカ(34)は作業着(33)から着脱自在である付記12に記載の作業着(33)。
(付記14)
情報処理装置(10)と撮像装置(31)とを有するシステム(1)であって、情報処理装置(10)はプロセッサ(19)を有し、プロセッサ(19)は、所定箇所に二次元バーコード(35a,35b)を含む識別マーカ(34)が少なくとも一つ付された作業着(33)を着用した作業者(32)を含む所定領域を撮像した撮像装置(31)から撮像情報を受け入れるステップ(S11)と、撮像情報に基づいて、この撮像情報に含まれる二次元バーコード(35a,35b)を特定し、特定した二次元バーコード(35a,35b)に対応する作業者(32)の特定部位を判定するステップ(S15)と、判定した特定部位それぞれにおける、所定時間毎の位置情報を算出するステップ(S16)とを実行するシステム。
(付記15)
プロセッサ(19)と、メモリ(15)とを備えるコンピュータにより実行される方法であって、プロセッサ(19)が、所定箇所に二次元バーコード(35a,35b)を含む識別マーカ(34)が少なくとも一つ付された作業着(33)を着用した作業者(32)を含む所定領域を撮像した撮像装置(31)から撮像情報を受け入れるステップ(S11)と、撮像情報に基づいて、この撮像情報に含まれる二次元バーコード(35a,35b)を特定し、特定した二次元バーコード(35a,35b)に基づいて所定箇所に対応する作業者(32)の特定部位を判定するステップ(S15)と、判定した特定部位それぞれにおける、所定時間毎の位置情報を算出するステップ(S16)とを実行する方法。
1 挙動解析システム、 10 挙動解析装置、 15 メモリ、 16 ストレージ、 19 プロセッサ、 20 エッジサーバ、 21 モニター装置、 30 手術室、 31 撮像装置、 32 医療従事者、 33 手術着、 34 識別マーカ、 35a,35b 二次元バーコード、 102 記憶部、 103 制御部、 202 記憶部、 1021 識別情報データベース(DB)、 1022 位置情報DB、 1023 個人特定情報DB、 1024 軌跡DB、 1031 受信制御モジュール、 1032 送信制御モジュール、 1033 画像データ取得モジュール、 1034 識別情報抽出モジュール、 1035 特定部位判定モジュール、 1036 位置情報算出モジュール、 1037 軌跡算出モジュール、 1038 挙動情報算出モジュール、 1100 骨格モデル、 1101 点線、 1102 軌跡

Claims (14)

  1. プロセッサと、メモリとを備えるコンピュータを動作させるためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    所定箇所に二次元バーコードを含む識別マーカが少なくとも一つ付された作業着を着用した作業者を含む所定領域を撮像した撮像装置から撮像情報を受け入れるステップと、
    前記撮像情報に基づいて、この撮像情報に含まれる前記二次元バーコードを特定し、特定した前記二次元バーコードに基づいて前記所定箇所に対応する前記作業者の特定部位を判定するステップと、
    判定した前記特定部位それぞれにおける、所定時間毎の位置情報を算出するステップと
    前記位置情報に基づいて前記作業者の身体各部の軌跡を特定するステップと、
    前記軌跡を前記作業者の挙動情報として出力するステップと
    を実行させ
    前記挙動情報として出力するステップにおいて、前記位置情報に基づいて前記作業者の骨格モデルを生成し、この骨格モデルを構成する骨格の動きを前記挙動情報として出力するプログラム。
  2. 前記二次元バーコードには識別情報が埋め込まれ、この識別情報は、特定の前記作業者の前記特定部位と予め紐付けされている請求項に記載のプログラム。
  3. 前記識別情報は前記二次元バーコードに複数個埋め込まれている請求項に記載のプログラム。
  4. 前記算出するステップにおいて、前記二次元バーコードから前記識別情報を抽出し、抽出した前記識別情報から前記作業者の前記特定部位を判定し、その位置情報を算定する請求項またはに記載のプログラム。
  5. 前記識別マーカには複数の前記二次元バーコードが設けられている請求項1~のいずれかに記載のプログラム。
  6. 前記作業着には複数の前記識別マーカが付されており、これら識別マーカに含まれる前記二次元バーコードのうち少なくとも一つには、前記作業者を特定可能な個人特定情報が含まれている請求項1~のいずれかに記載のプログラム。
  7. 情報処理装置と撮像装置とを有するシステムであって、
    前記情報処理装置はプロセッサを有し、
    前記プロセッサは、
    所定箇所に二次元バーコードを含む識別マーカが少なくとも一つ付された作業着を着用した作業者を含む所定領域を撮像した前記撮像装置から撮像情報を受け入れるステップと、
    前記撮像情報に基づいて、この撮像情報に含まれる前記二次元バーコードを特定し、特定した前記二次元バーコードに対応する前記作業者の特定部位を判定するステップと、
    判定した前記特定部位それぞれにおける、所定時間毎の位置情報を算出するステップと
    前記位置情報に基づいて前記作業者の身体各部の軌跡を特定するステップと、
    前記軌跡を前記作業者の挙動情報として出力するステップと
    を実行し、
    前記挙動情報として出力するステップにおいて、前記位置情報に基づいて前記作業者の骨格モデルを生成し、この骨格モデルを構成する骨格の動きを前記挙動情報として出力するシステム。
  8. 請求項7に記載のシステムに用いられることが可能な前記作業着であって、
    着用者の肩、及び肘を含む体の部位を一意に示す識別情報が埋め込まれた前記二次元バーコードを含む前記識別マーカが、前記体の前記部位と対応する位置にそれぞれ付される作業着。
  9. 前記識別情報は、この識別情報が埋め込まれた前記二次元バーコードに複数個埋め込まれている請求項に記載の作業着。
  10. 前記識別情報は、情報処理装置において前記二次元バーコードから抽出され、前記抽出された前記識別情報により前記着用者の前記部位が判定され、前記部位の位置情報が算出されることで前記着用者の身体各部の軌跡が特定される請求項またはに記載の作業着。
  11. 前記識別マーカには複数の前記二次元バーコードが設けられている請求項10のいずれかに記載の作業着。
  12. 前記作業着には複数の前記識別マーカが付されており、これら識別マーカに含まれる前記二次元バーコードのうち少なくとも一つには、前記着用者を特定可能な個人特定情報が含まれている請求項11のいずれかに記載の作業着。
  13. 前記個人特定情報が含まれた前記二次元バーコードを有する前記識別マーカは前記作業着から着脱自在である請求項12に記載の作業着。
  14. プロセッサと、メモリとを備えるコンピュータにより実行される方法であって、
    前記プロセッサが、
    所定箇所に二次元バーコードを含む識別マーカが少なくとも一つ付された作業着を着用した作業者を含む所定領域を撮像した撮像装置から撮像情報を受け入れるステップと、
    前記撮像情報に基づいて、この撮像情報に含まれる前記二次元バーコードを特定し、特定した前記二次元バーコードに基づいて前記所定箇所に対応する前記作業者の特定部位を判定するステップと、
    判定した前記特定部位それぞれにおける、所定時間毎の位置情報を算出するステップと
    前記位置情報に基づいて前記作業者の身体各部の軌跡を特定するステップと、
    前記軌跡を前記作業者の挙動情報として出力するステップと
    を実行し、
    前記挙動情報として出力するステップにおいて、前記位置情報に基づいて前記作業者の骨格モデルを生成し、この骨格モデルを構成する骨格の動きを前記挙動情報として出力する方法。
JP2021180564A 2021-11-04 2021-11-04 プログラム、作業着、システム及び方法 Active JP7080389B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021180564A JP7080389B1 (ja) 2021-11-04 2021-11-04 プログラム、作業着、システム及び方法
JP2022084560A JP2023070013A (ja) 2021-11-04 2022-05-24 プログラム、作業着、システム及び方法
PCT/JP2022/041256 WO2023080219A1 (ja) 2021-11-04 2022-11-04 プログラム、作業着、システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021180564A JP7080389B1 (ja) 2021-11-04 2021-11-04 プログラム、作業着、システム及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022084560A Division JP2023070013A (ja) 2021-11-04 2022-05-24 プログラム、作業着、システム及び方法

Publications (2)

Publication Number Publication Date
JP7080389B1 true JP7080389B1 (ja) 2022-06-03
JP2023069022A JP2023069022A (ja) 2023-05-18

Family

ID=81852658

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021180564A Active JP7080389B1 (ja) 2021-11-04 2021-11-04 プログラム、作業着、システム及び方法
JP2022084560A Pending JP2023070013A (ja) 2021-11-04 2022-05-24 プログラム、作業着、システム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022084560A Pending JP2023070013A (ja) 2021-11-04 2022-05-24 プログラム、作業着、システム及び方法

Country Status (2)

Country Link
JP (2) JP7080389B1 (ja)
WO (1) WO2023080219A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000021945A (ja) 1998-06-30 2000-01-21 Nec Corp 半導体集積回路のコンタクト抵抗測定方法及び回路
JP2007090448A (ja) 2005-09-27 2007-04-12 Honda Motor Co Ltd 二次元コード検出装置及びそのプログラム、並びに、ロボット制御情報生成装置及びロボット
JP2008225913A (ja) 2007-03-13 2008-09-25 Fujitsu Ltd 作業支援システム、作業支援装置および作業支援方法
JP2012103806A (ja) 2010-11-08 2012-05-31 Japan Research Institute Ltd 承認システム及び承認方法
JP2019139343A (ja) 2018-02-07 2019-08-22 グンゼ株式会社 無線タグ複合体、衣類及び見守りキット

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850973B1 (ja) * 2010-09-14 2012-01-11 ギアヌーヴ株式会社 工事現場の労務管理システム及びサーバ
KR20130001891U (ko) * 2011-09-11 2013-03-20 박규호 큐알 코드가 결합된 아이티 의류
JP2014053821A (ja) * 2012-09-07 2014-03-20 Sogo Keibi Hosho Co Ltd 警備システム及び警備方法
JP2019141262A (ja) * 2018-02-19 2019-08-29 国立大学法人 筑波大学 武道動作解析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000021945A (ja) 1998-06-30 2000-01-21 Nec Corp 半導体集積回路のコンタクト抵抗測定方法及び回路
JP2007090448A (ja) 2005-09-27 2007-04-12 Honda Motor Co Ltd 二次元コード検出装置及びそのプログラム、並びに、ロボット制御情報生成装置及びロボット
JP2008225913A (ja) 2007-03-13 2008-09-25 Fujitsu Ltd 作業支援システム、作業支援装置および作業支援方法
JP2012103806A (ja) 2010-11-08 2012-05-31 Japan Research Institute Ltd 承認システム及び承認方法
JP2019139343A (ja) 2018-02-07 2019-08-22 グンゼ株式会社 無線タグ複合体、衣類及び見守りキット

Also Published As

Publication number Publication date
WO2023080219A1 (ja) 2023-05-11
JP2023070013A (ja) 2023-05-18
JP2023069022A (ja) 2023-05-18

Similar Documents

Publication Publication Date Title
Regazzoni et al. RGB cams vs RGB-D sensors: Low cost motion capture technologies performances and limitations
US20230016227A1 (en) Medical augmented reality navigation
US9700242B2 (en) Motion information processing apparatus and method
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
Van der Aa et al. Umpm benchmark: A multi-person dataset with synchronized video and motion capture data for evaluation of articulated human motion and interaction
CN109567954A (zh) 图像引导程序的工作流程辅助系统及方法
RU2676147C2 (ru) Непрерывное автоматическое наблюдение за движениями пациента
JP6930995B2 (ja) 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
CN106859675A (zh) 用3d相机进行的用于x射线管的扫描仪自动化的方法和系统
KR20170124574A (ko) 턱의 모션 추적
EP3593227A1 (en) Augmented reality pre-registration
US11139070B2 (en) Medical information virtual reality server system, medical information virtual reality program, medical information virtual reality system, method of creating medical information virtual reality data, and medical information virtual reality data
Vitali et al. Acquisition of customer’s tailor measurements for 3D clothing design using virtual reality devices
JP2019024550A (ja) 検出装置、検出システム、処理装置、検出方法、及び検出プログラム
US20150130841A1 (en) Methods and computing devices to measure musculoskeletal movement deficiencies
Altieri et al. A low cost motion analysis system based on RGB cameras to support ergonomic risk assessment in real workplaces
Kuryło et al. Machine vision system measuring the trajectory of upper limb motion applying the matlab software
JP7080389B1 (ja) プログラム、作業着、システム及び方法
JPWO2017170440A1 (ja) 計測装置、計測方法、及びコンピュータ読み取り可能な記録媒体
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
EP4181080A1 (en) Monitoring an entity in a medical facility
Ravi et al. ODIN: An OmniDirectional INdoor dataset capturing Activities of Daily Living from multiple synchronized modalities
US20240112367A1 (en) Real-time pose estimation through bipartite matching of heatmaps of joints and persons and display of visualizations based on the same
JP2022149435A (ja) 情報処理方法、情報処理装置およびプログラム
JP2017079811A (ja) 計測システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211104

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150