JP2010005326A - Event identification system - Google Patents

Event identification system Download PDF

Info

Publication number
JP2010005326A
JP2010005326A JP2008171408A JP2008171408A JP2010005326A JP 2010005326 A JP2010005326 A JP 2010005326A JP 2008171408 A JP2008171408 A JP 2008171408A JP 2008171408 A JP2008171408 A JP 2008171408A JP 2010005326 A JP2010005326 A JP 2010005326A
Authority
JP
Japan
Prior art keywords
information
heartbeat
time
staff
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008171408A
Other languages
Japanese (ja)
Other versions
JP5197188B2 (en
Inventor
Kyojiro Nanbu
恭二郎 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2008171408A priority Critical patent/JP5197188B2/en
Publication of JP2010005326A publication Critical patent/JP2010005326A/en
Application granted granted Critical
Publication of JP5197188B2 publication Critical patent/JP5197188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an event identification system capable of recording who did what and when in a series of working actions such as a surgery accurately and along a time series in such a way as can be easily recognized on a list by a simple device structure. <P>SOLUTION: The event identification system for recording the time when a prescribed event occurs in a series of working actions in such a way as can be retrieved is configured as follows. The event identification system includes: an acoustic data collecting means 300 for collecting acoustic data including heartbeat sounds of a person in charge of the series of working actions; a filtering means 500 for extracting data related to the heartbeat sounds from the acoustic data; and a heartbeat sound data processing means 700A for generating respiration information on the respiration of the person in charge of the series of working actions based on the heartbeat sound data and determining and recording the time when the prescribed event occurs in the series of working actions based on the respiration information generated by a respiration information generating means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば手術等の一連の作業行為の中で実行される動作やその中で発生する事象等に関する情報を時系列に記憶し、これにより前記一連の作業行為の事後分析、検証、更には当該行為手順の最適化等に有効に活用可能なイベント識別システムに関する。   The present invention stores, in a time series, information related to operations performed in a series of work activities such as surgery and events occurring therein, thereby performing post-analysis, verification, and further verification of the series of work actions. Relates to an event identification system that can be used effectively for optimizing the action procedure.

医療の現場を例にとると、例えば手術等の医療行為が行われた場合、当該医療行為に関わった医師等により、その詳細が文書として記録され、カルテ等に添付されて保管される。このようにして作成された記録簿には、手術中の様々な機器から出力されたデータを示すチャートや写真などが添付されることも多い。   Taking a medical site as an example, when a medical practice such as surgery is performed, the details are recorded as a document by a doctor involved in the medical practice and attached to a medical record or the like and stored. The record book created in this way is often attached with charts and photographs showing data output from various devices during surgery.

このため、当該医療行為を行った後で、それら医療行為の手順や内容を検証したり再現しようとする場合、上述した記録簿を閲覧することが中心となる。しかしながら、上述した記録簿には、多種多様なデータが、時間の順序とは無関係に(非時系列的に)記載されていることが多い。また、前記記録簿に全ての情報が記録されているとは限らない。すなわち、医療行為に関わった情報が一元化されずに、関係各部署に個別に保管されているような場合も多い。   For this reason, after performing the said medical practice, when it is going to verify or reproduce the procedure and content of those medical practice, it is centered on browsing the record book mentioned above. However, in the above-described record book, various kinds of data are often described (non-chronologically) regardless of the order of time. Moreover, not all information is recorded in the record book. In other words, there are many cases where information related to medical practice is not centralized and is stored individually in each department concerned.

例えば、比較的簡単であると考えられている手術であっても、心電図、呼吸、血圧など患者の生体状況を観察するモニター情報の他にも、麻酔モニター(麻酔量、投入レート)や電気メス(電圧、時間)等、患者に対して施す医療行為に係る装置は数多い。さらに、術者が施す医療行為として、例えば器具の利用や投薬等の様々な医療行為に係る情報が複雑に絡むことが多い。   For example, even an operation that is considered to be relatively simple, in addition to monitor information for observing the patient's biological conditions such as electrocardiogram, respiration, blood pressure, etc., an anesthesia monitor (anesthetic amount, input rate) and electric knife There are many devices related to medical practices such as (voltage, time). Further, as medical practices performed by the surgeon, information related to various medical practices such as use of instruments and medication is often involved.

このため、医療知識に通じている医師等であっても、医療行為の一部始終を事後にくまなく確認・検証するには相当な時間を掛けて情報を集めて分析しなければならず、その手間や要する時間は膨大である。また、必要と思われる情報を全て集めることは容易ではなく、当該手術の中心となる執刀医以外のスタッフの行動や手術室の環境の変化等、記録されていない情報が重要な意味を持つことも多い。すなわち、行われた手術等の医療行為を検討し、より最適な手順を構築しようと試みても、検討材料となる情報に限りがある為、かかる最適化の実現には多大な労力が必要である。   For this reason, even doctors who are familiar with medical knowledge must collect and analyze information over a considerable amount of time in order to confirm and verify all aspects of medical practice after the fact. The effort and time required are enormous. Also, it is not easy to collect all the information that seems necessary, and unrecorded information such as the behavior of staff other than the surgeon who is the center of the operation and changes in the operating room environment is important. There are also many. In other words, even if an attempt is made to construct a more optimal procedure by examining medical practices such as surgery performed, a great deal of effort is required to realize such optimization because of limited information that can be studied. is there.

以上説明したように、例えば医師等の専門家であっても、医療行為全体を事後に確認・検証することは非常に困難である。ましてや、通常、医療行為に馴染みのない一般人が、前記記録簿等から医療行為を事後に正確に読み取ることは殆ど不可能に近いというのが実情である。   As described above, even a specialist such as a doctor is very difficult to confirm and verify the entire medical practice after the fact. Moreover, it is almost impossible for ordinary people who are not familiar with medical practice to read the medical practice accurately from the record book after the fact.

そこで、例えば手術や治療等の医療行為を漏らさず且つ客観的に確認・検証する為に、上述したような記録簿作成に加えて、当該医療行為の現場で遣り取りされた会話を録音し、更には当該医療行為の現場の様子をビデオカメラ等で撮影し、録音で取得した音声や撮影で取得した映像を併用する技術が提案されている。   Therefore, in order to confirm and verify objectively the medical practice such as surgery and treatment, in addition to creating the record book as described above, the conversation exchanged at the site of the medical practice is recorded. A technique has been proposed in which a scene of the medical practice is photographed with a video camera or the like, and audio obtained by recording and video obtained by photography are used in combination.

しかしながら、このように音声や映像を併用する場合であっても、録音で取得した音声や撮影で取得した映像と、上述した記録簿に記録された各々の医療行為と、を時間軸上で連結するのに要する作業量は膨大であり、非常に時間と労力とを要する。このような問題は、例えば手術等の医療行為中における術者又は医療スタッフ等によるそれぞれの医療行為を時間軸上で整理して捉えるという概念が欠如している為に生じる問題である。   However, even when audio and video are used in this way, the audio and video acquired by recording and the medical actions recorded in the above-described record book are linked on the time axis. The amount of work required to do this is enormous, requiring a lot of time and labor. Such a problem is caused by a lack of the concept of organizing and capturing each medical action by an operator or medical staff during a medical action such as surgery.

このような事情に鑑みて、例えば特許文献1に、次のような技術が提案されている。すなわち、特許文献1には、手術に関わる情報を検出するセンサと、該センサにより検出された情報を時間情報に連結して保管するサーバと、該サーバにより保管される情報を時系列に表示する表示装置と、を備え、前記サーバは、保管された情報を時間情報に基づいて分析可能な機能を有する医療情報システムが開示されている。   In view of such circumstances, for example, Patent Document 1 proposes the following technique. That is, in Patent Literature 1, a sensor that detects information related to surgery, a server that stores information detected by the sensor in connection with time information, and information stored by the server is displayed in time series. There is disclosed a medical information system including a display device, the server having a function capable of analyzing stored information based on time information.

この特許文献1に開示された医療情報システムによれば、手術や治療等の医療行為に関わる殆ど全ての情報を時間経過に沿って記録できる。さらに、それら記録した情報は時系列に沿った表示で提示され、時間情報に基づいた医療行為の分析が容易に可能となる。
特開2004−280455号公報
According to the medical information system disclosed in Patent Document 1, almost all information related to medical practices such as surgery and treatment can be recorded over time. Furthermore, the recorded information is presented in a time-series display, and the medical practice based on the time information can be easily analyzed.
JP 2004-280455 A

ところで、例えば手術等の医療行為を分析する場合には、術者の動きを可能な限り妨げないような装置から成るシステムが好ましい。換言すれば、各種情報の収集の為に用いる装置はできるだけ簡易な装置であることが好ましい。   By the way, for example, when analyzing a medical practice such as surgery, a system including a device that does not hinder the movement of the operator as much as possible is preferable. In other words, the device used for collecting various information is preferably as simple as possible.

さらに言えば、当該医療行為に携わる人間の呼吸に係るデータを収集することができれば、当該医療行為の分析をより精密なものとすることができる。しかしながら、当業者には周知の事実であるが、人間の呼吸に係るデータを収集する為には、非常に大掛かりな装置を要する。従って、このようなシステムは未だ実現していない。なお、特許文献1に開示されている技術は、これらの問題を解決する技術ではない。   Furthermore, if data relating to the breathing of a person engaged in the medical practice can be collected, the analysis of the medical practice can be made more precise. However, as is well known to those skilled in the art, in order to collect data related to human respiration, a very large device is required. Therefore, such a system has not been realized yet. The technique disclosed in Patent Document 1 is not a technique for solving these problems.

本発明は、前記の事情に鑑みて為されたものであり、例えば手術等の一連の作業行為において、いつ誰が何を行ったかを、簡易な装置構成で且つ時系列に沿って一覧で把握可能なように記録するイベント識別システムを提供することを目的とする。   The present invention has been made in view of the above circumstances. For example, in a series of work activities such as surgery, it is possible to grasp who performed what and when in a list with a simple device configuration and in time series. An object of the present invention is to provide an event identification system for recording.

前記の目的を達成するために、請求項1に記載の本発明によるイベント識別システムは、
一連の作業行為の中で所定の事象が生じた時刻を検索可能に記録するイベント識別システムであって、
前記一連の作業行為に係る者の心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記一連の作業行為に係る者の呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で前記所定の事象が生じた時刻を判定且つ記録するイベント識別手段と、
を具備することを特徴とする。
In order to achieve the above object, an event identification system according to the present invention according to claim 1 comprises:
An event identification system for recordably recording a time when a predetermined event occurs in a series of work actions,
Acoustic data collection means for collecting acoustic data including heartbeat sounds of persons involved in the series of work actions;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to respiration of a person involved in the series of work actions based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining and recording the time at which the predetermined event occurred in the series of work actions based on the respiratory information generated by the respiratory information generating means;
It is characterized by comprising.

前記の目的を達成するために、請求項8に記載の本発明によるイベント識別システムは、
一連の作業行為が行われる現場を撮影した映像、前記現場に存在したスタッフを識別する情報、及び前記映像内での前記スタッフの位置を特定する情報、を時系列で記憶する現場情報記憶手段と、
前記スタッフの心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記スタッフの呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で所定の事象が生じた時刻を判定するイベント識別手段と、
前記イベント識別手段によって前記所定の事象が生じたと判定された時刻を記憶するキューインデックス記憶手段と、
前記キューインデックス記憶手段によって記憶された時刻に対応してキューマークを表示させ、オペレータにより指定されたキューマークに対応する時刻から前記映像を表示させる頭出し表示制御手段と、
を具備することを特徴とする。
In order to achieve the above object, an event identification system according to the present invention according to claim 8 comprises:
On-site information storage means for storing, in chronological order, a video image of a site where a series of work actions are performed, information for identifying a staff member present at the site, and information for specifying the position of the staff member in the video image ,
Acoustic data collection means for collecting acoustic data including the staff's heartbeat;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to breathing of the staff based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining a time when a predetermined event occurs in the series of work actions based on the respiratory information generated by the respiratory information generating means;
A queue index storage means for storing a time when the event identification means determines that the predetermined event has occurred;
A cue display control means for displaying a cue mark corresponding to the time stored by the cue index storage means, and displaying the video from the time corresponding to the cue mark designated by an operator;
It is characterized by comprising.

前記の目的を達成するために、請求項9に記載の本発明によるイベント識別システムは、
一連の作業行為の中で所定の事象が生じた時刻を検索可能に記録するイベント識別システムであって、
前記一連の作業行為が行われる現場を撮影して映像情報を取得する撮影手段と、
前記一連の作業行為に係る者に装着され、個体を識別する為の個体識別情報を含む信号である個体識別信号を送信する送信装置と、
前記個体識別信号の発信場所を特定する為の空間分解能を有し、前記送信装置から送信される個体識別信号を受信する受信手段と、
前記撮影手段によって取得した前記映像情報と、前記受信手段によって受信した前記個体識別信号の発信場所とを対応付ける統括手段と、
各々の前記送信装置毎に付与された前記個体識別情報と、当該送信装置を装着する者に関する個人特定情報と、を対応付ける為の登録装置と、
前記一連の作業行為に係る者の心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記一連の作業行為に係る者の呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で前記所定の事象が生じた時刻を判定するイベント識別手段と、
を具備することを特徴とする。
In order to achieve the above object, an event identification system according to the present invention according to claim 9 comprises:
An event identification system for recordably recording a time when a predetermined event occurs in a series of work actions,
Photographing means for photographing the site where the series of work actions are performed and obtaining video information;
A transmitter that is attached to a person involved in the series of work actions and transmits an individual identification signal that is an individual identification information for identifying an individual;
Receiving means for receiving an individual identification signal transmitted from the transmission device, having a spatial resolution for specifying a transmission location of the individual identification signal;
Generalization means for associating the video information acquired by the imaging means with the transmission location of the individual identification signal received by the reception means;
A registration device for associating the individual identification information given to each of the transmission devices with personal identification information about a person wearing the transmission device;
Acoustic data collection means for collecting acoustic data including heartbeat sounds of persons involved in the series of work actions;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to respiration of a person involved in the series of work actions based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining the time at which the predetermined event occurred in the series of work actions based on the respiratory information generated by the respiratory information generating means;
It is characterized by comprising.

本発明によれば、例えば手術等の一連の作業行為において、いつ誰が何を行ったかを、簡易な装置構成で且つ時系列に沿って一覧で把握可能なように記録するイベント識別システムを提供することができる。   According to the present invention, there is provided an event identification system that records when and what has been performed in a series of work activities such as surgery, for example, so that the list can be grasped in a time-series manner with a simple device configuration. be able to.

[第1実施形態]
以下、図面を参照して、本発明の第1実施形態に係るイベント識別システムについて説明する。なお、ここでは説明の便宜上、本第1実施形態に係るイベント識別システムによって分析する対象の作業行為として手術を例に説明する。
[First Embodiment]
Hereinafter, an event identification system according to a first embodiment of the present invention will be described with reference to the drawings. Here, for convenience of explanation, an operation will be described as an example of a work action to be analyzed by the event identification system according to the first embodiment.

図1は、本第1実施形態に係るイベント識別システムの一構成例を示すブロック図である。同図に示すように、イベント識別システムは、音響データ収集手段300と、フィルタ手段500と、心拍音データ処理手段700Aと、心拍音除去データ処理手段700Bと、を具備する。   FIG. 1 is a block diagram showing a configuration example of the event identification system according to the first embodiment. As shown in the figure, the event identification system includes an acoustic data collection unit 300, a filter unit 500, a heartbeat data processing unit 700A, and a heartbeat removal data processing unit 700B.

前記音響データ収集手段300は、本第1実施形態に係るイベント識別システムによって分析する対象の作業行為に係る音響データを収集する為の手段である。   The acoustic data collecting unit 300 is a unit for collecting acoustic data related to a work action to be analyzed by the event identification system according to the first embodiment.

具体的には、前記音響データ収集手段300は、例えば図2に示すように、当該分析対象の作業行為に係る者が装着する接触型マイクロフォン(skin−contact microphone)300Aと、前記接触型マイクロフォン300Aによって収集された音響データを後述する受信機300Cへ送信する為の送信機300Bと、前記送信機300Bによって送信された音響データを受信する受信機300Cと、を有する。   Specifically, as shown in FIG. 2, for example, the acoustic data collection unit 300 includes a contact-type microphone 300A worn by a person involved in the analysis target work action, and the contact-type microphone 300A. The transmitter 300B for transmitting the acoustic data collected by the transmitter 300C to be described later, and the receiver 300C for receiving the acoustic data transmitted by the transmitter 300B.

より具体的には、前記接触型マイクロフォン300Aは、いわゆる電子聴診器に用いられている技術を利用したマイクロフォンであり、電子聴診器と異なる点は被験者に装着させて使用する点である。   More specifically, the contact-type microphone 300A is a microphone that uses a technique used in a so-called electronic stethoscope, and is different from the electronic stethoscope in that it is used by being attached to a subject.

なお、当然ながら、図2に示す音響データ収集手段300の構成はあくまでも一例である。従って、例えば前記送信機300Bを、前記フィルタ手段500、前記心拍音データ処理手段700A、及び前記心拍音除去データ処理手段700Bと一体的に構成してもよい。このように構成する場合、前記送信機300Bによって送信するデータは、後述する前記フィルタ手段500、前記心拍音データ処理手段700A、及び前記心拍音除去データ処理手段700Bによる分析処理後のデータである為、送信に係るデータ量を小さくすることができる。   Of course, the configuration of the acoustic data collection means 300 shown in FIG. 2 is merely an example. Therefore, for example, the transmitter 300B may be configured integrally with the filter unit 500, the heartbeat data processing unit 700A, and the heartbeat removal data processing unit 700B. In such a configuration, the data transmitted by the transmitter 300B is data after analysis processing by the filter unit 500, the heartbeat data processing unit 700A, and the heartbeat removal data processing unit 700B, which will be described later. The amount of data related to transmission can be reduced.

また、前記送信機300Bと前記受信機300Bとの間で送受信するデータは、アナログデータであってもデジタルデータであっても良い。また、前記送信機300Bによって送信する前に、当該データに所定の圧縮処理等の前処理を施しても勿論よい。   Further, data transmitted and received between the transmitter 300B and the receiver 300B may be analog data or digital data. Of course, the data may be subjected to pre-processing such as predetermined compression processing before being transmitted by the transmitter 300B.

前記フィルタ手段500は、前記音響データ収集手段300によって収集した音響データに対して所定のフィルタ処理を施し、接触型マイクロフォン300Aの装着者の心拍音に係るデータである心拍音データを抽出して心拍音データ処理手段700Aに出力する。また、前記フィルタ手段500は、音響データ収集手段300によって収集した音響データのうち前記心拍音データを除去したデータを生成し、心拍音除去データとして心拍音除去データ処理手段700Bに出力する。   The filter unit 500 performs a predetermined filtering process on the acoustic data collected by the acoustic data collection unit 300, and extracts heartbeat data that is data related to the heartbeat of the wearer of the contact microphone 300A. The sound is output to the sound data processing means 700A. The filter unit 500 generates data obtained by removing the heartbeat data from the acoustic data collected by the acoustic data collection unit 300, and outputs the data to the heartbeat removal data processing unit 700B as heartbeat removal data.

詳細には、心拍音に係る音響データは、非常に低周波(具体的には、50Hz前後の周波数を多く含んでいる)であり、例えば前記音響データ収集手段300によって収集した音響データのうち例えば200Hz以上の周波数をカットすることで、心拍音に係る音響データを抽出することができる。従って、前記フィルタ手段500は、このようなフィルタ処理を前記音響データに施すことで、前記心拍音データを抽出する。   In detail, the acoustic data relating to the heartbeat sound has a very low frequency (specifically, includes many frequencies around 50 Hz). For example, among the acoustic data collected by the acoustic data collecting means 300, for example, By cutting a frequency of 200 Hz or higher, it is possible to extract acoustic data relating to heartbeat sounds. Therefore, the filter unit 500 extracts the heartbeat data by applying such a filtering process to the acoustic data.

なお、前記フィルタ手段500は、上述した処理によって前記音響データから前記心拍音データを抽出する際に、該抽出に係るデータが、心拍音データとして特定の周期を有するデータであることの確認処理を行う。   When the filter means 500 extracts the heartbeat data from the acoustic data by the above-described process, the filter means 500 performs a confirmation process that the data related to the extraction is data having a specific cycle as the heartbeat data. Do.

すなわち、前記フィルタ手段500は、心拍音データの抽出処理過程において、通常のパターン認識技術により、当該抽出処理に係るデータが心拍音データとして妥当なデータであるか否かを確認処理している。   That is, in the heartbeat sound data extraction process, the filter unit 500 performs a confirmation process by using a normal pattern recognition technique to determine whether or not the data related to the extraction process is valid as heartbeat data.

前記心拍音データ処理手段700Aは、前記心拍音データについて分析処理を行う手段である。なお、この心拍音データ処理手段700Aによる具体的処理内容は後述する。   The heartbeat data processing means 700A is means for performing analysis processing on the heartbeat data. The specific processing content by the heartbeat data processing means 700A will be described later.

前記心拍音除去データ処理手段700Bは、前記心拍音除去データについて分析処理を行う手段である。なお、この心拍音除去データ処理手段700Bによる具体的処理内容は後述する。   The heartbeat removal data processing means 700B is a means for performing analysis processing on the heartbeat removal data. The specific processing contents by the heartbeat sound removal data processing means 700B will be described later.

以下、図3乃至図9を参照して、前記心拍音データ処理手段700Aによる心拍音データの分析処理について詳細に説明する。   Hereinafter, the heartbeat data analysis processing by the heartbeat data processing unit 700A will be described in detail with reference to FIGS.

まず、前記心拍音データ処理手段700Aは、前記音響データ収集手段300によって収集され前記フィルタ手段500によって抽出された前記心拍音データに基づいて、後述する処理によって“R−R間隔と略同一の間隔”を算出する。   First, the heartbeat sound data processing unit 700A performs a process described later on the basis of the heartbeat sound data collected by the acoustic data collection unit 300 and extracted by the filter unit 500. "Is calculated.

具体的には、前記心拍音データの波形における一周期は、図3に示すように、心電図により取得した波形から算出されるR−R間隔と略同一の期間である。すなわち、心電図により取得した波形における最も振幅が大きい波の発生タイミング間隔は、前記心拍音データにおける最も振幅が大きい波の心拍発生タイミング間隔と略同一の間隔である。   Specifically, as shown in FIG. 3, one period in the waveform of the heartbeat data is substantially the same as the RR interval calculated from the waveform acquired by the electrocardiogram. That is, the generation timing interval of the wave with the largest amplitude in the waveform acquired by the electrocardiogram is substantially the same as the heartbeat generation timing interval of the wave with the largest amplitude in the heartbeat sound data.

この事実を利用して、本第1実施形態においては、前記心拍音データに基づいて“R−R間隔と略同一の間隔”を算出する。   By utilizing this fact, in the first embodiment, “substantially the same interval as the RR interval” is calculated based on the heartbeat data.

詳細には、上述した“R−R間隔と略同一の間隔”は、例えば図3に示す時刻t1及び時刻t2(共に、所定の心拍発生タイミング)を用いて、
t2−t1
と表現することができる。以降、この時間間隔を“瞬間時間間隔”と称する。
Specifically, the above-described “substantially the same interval as the RR interval” uses, for example, time t1 and time t2 (both are predetermined heartbeat generation timings) shown in FIG.
t2-t1
It can be expressed as Hereinafter, this time interval is referred to as “instantaneous time interval”.

そして、この瞬間時間間隔から導出される心拍数(瞬間心拍数=[拍/分])は、
60/(t2−t1)
と表現することができる。
And the heart rate derived from this instantaneous time interval (instantaneous heart rate = [beats / minute]) is
60 / (t2-t1)
It can be expressed as

つまり、上述した瞬間時間間隔と瞬間心拍数とは、当然ながら互いに逆数の関係にある。そして、この瞬間心拍数と呼吸とは相関関係を有することが知られている。本第1実施形態においてはこの事実を利用して、前記心拍音処理データ700Aは、瞬間心拍数の時間変化に基づいて、前記接触型マイクロフォン300Aの装着者の呼吸状態を推定処理する。以下、瞬間心拍数の時間変化を示すグラフから、呼吸状態を推定する方法の一例を説明する。   In other words, the instantaneous time interval and the instantaneous heart rate described above are in a reciprocal relationship with each other. It is known that the instantaneous heart rate and respiration have a correlation. In the first embodiment, using this fact, the heartbeat processing data 700A estimates the respiratory state of the wearer of the contact microphone 300A based on the temporal change of the instantaneous heart rate. Hereinafter, an example of a method for estimating a respiratory state from a graph showing temporal changes in instantaneous heart rate will be described.

まず、瞬間心拍数の時間変化を示すグラフは、図4に示すように、常に(通常の呼吸をしているだけで)生理的変動を示すグラフとなる。なお、呼吸状態の変化が、実際に瞬間心拍数の時間変化として表れるまでには、若干の遅延時間が存在する(図4に示す波線参照)。   First, as shown in FIG. 4, the graph showing the temporal change in the instantaneous heart rate is always a graph showing physiological fluctuations (only with normal breathing). Note that there is a slight delay time until the change in the respiratory state actually appears as a time change in the instantaneous heart rate (see the wavy line shown in FIG. 4).

詳細には、瞬間心拍数の時間変化を示す波形の振幅からは、呼吸の深さを推定することが可能である。すなわち、図5に示すように、波形の振幅が大きい期間は、例えば深呼吸のような深い呼吸が行われている期間であると推定することができる。他方、呼吸が停止している期間は、図6に示すように波形の振幅は極めて小さくなる。   Specifically, it is possible to estimate the respiration depth from the amplitude of the waveform indicating the temporal change in the instantaneous heart rate. That is, as shown in FIG. 5, it can be estimated that the period in which the waveform amplitude is large is a period in which deep breathing such as deep breathing is performed. On the other hand, during the period when breathing is stopped, the amplitude of the waveform is extremely small as shown in FIG.

ところで、図7は、上述したような心拍数の時間変化を示すグラフから、呼吸の頻度及び呼吸の深さを読み取り、これらのデータを同一の時間軸で対応させてグラフ化した図である。前記心拍音データ700Aは、このような呼吸の頻度及び呼吸の深さのデータに基づいて、例えば次のような呼吸状態の推定処理を行う。   Incidentally, FIG. 7 is a graph obtained by reading the respiration frequency and the respiration depth from the graph showing the time change of the heart rate as described above, and making these data correspond to each other on the same time axis. The heartbeat sound data 700A performs, for example, the following breathing state estimation processing based on such breathing frequency and breathing depth data.

(推定例1)呼吸の頻度が高く且つ呼吸の深さが浅い期間は、精密な作業を行っていない期間であると推定できる。 (Estimation Example 1) It can be estimated that the period in which the respiration frequency is high and the respiration depth is shallow is a period in which precise work is not performed.

(推定例2)呼吸の頻度が小さく且つ呼吸が浅い期間は、精密な作業を行っている期間であると推定できる(例えば、10秒間乃至30秒間程度、R−R間隔と略同一の間隔の変動がほとんど無ければ、呼吸を止めていると推定することができる。そして、呼吸を止めている時間の総計を、例えば1分乃至5分単位で計測すること(換言すれば頻度を測ること)によって、精密で慎重な作業を行っている状態であると推定することができる)
(推定例3)呼吸の頻度が高く且つ呼吸の深さが深い期間は、作業中ではなく休憩中の期間であると推定できる。
(Estimation example 2) A period in which the frequency of breathing is low and the breathing is shallow can be estimated as a period in which precise work is performed (for example, approximately 10 seconds to 30 seconds with an interval substantially the same as the RR interval). If there is almost no fluctuation, it can be estimated that the person has stopped breathing, and the total time during which the breath is stopped is measured, for example, in units of 1 to 5 minutes (in other words, the frequency is measured). (It can be presumed that you are working precisely and carefully)
(Estimation example 3) It can be estimated that the period in which the frequency of breathing is high and the depth of breathing is deep is not a work period but a rest period.

図8は、時間軸を時間(hour)単位で取った場合の瞬間心拍数の時間変化のグラフを示す図である。ここで、或る時間における瞬間心拍数の数値としては、図8に示すように、対応する時間帯における瞬間心拍数の平均値を用いればよい。   FIG. 8 is a graph showing a temporal change in instantaneous heart rate when the time axis is taken in units of time. Here, as the value of the instantaneous heart rate at a certain time, as shown in FIG. 8, the average value of the instantaneous heart rate in the corresponding time zone may be used.

時間軸を時間(hour)単位で取った場合の瞬間心拍数の時間変化からは、より大きなトレンドで呼吸状態の変化を推定することが可能となる。例えば、同図に示す時間T1近傍では瞬間心拍数の急激な変化が生じている。このことから、当該時間T1に対応する時間帯において被験者にとって精神的/肉体的に大きな影響を与える事象が起こったと推定することができる。   From the temporal change of the instantaneous heart rate when the time axis is taken in units of hours, it is possible to estimate the change in the respiratory state with a larger trend. For example, a sudden change in the instantaneous heart rate occurs near the time T1 shown in FIG. From this, it can be estimated that an event having a great influence on the subject mentally / physically occurred in the time zone corresponding to the time T1.

図9は、上述した推定処理によって、呼吸が停止していると推定された頻度を縦軸に取り且つ横軸に時間を取ったグラフ、すなわち呼吸停止頻度の時間変化のグラフを示す図である。このような呼吸停止頻度の時間変化を参照することで、より正確なイベント識別を行うことが可能となる。   FIG. 9 is a diagram showing a graph in which the frequency estimated that the breathing is stopped by the above-described estimation processing is taken on the vertical axis and time is taken on the horizontal axis, that is, a graph of the temporal change in the respiratory stop frequency. . By referring to such a temporal change in the frequency of respiratory arrest, it becomes possible to perform more accurate event identification.

以上説明したように、本第1実施形態においては、従来は非実用的な大掛かりな装置を用いなければ不可能であった呼吸状態を読み取ることを、上述したような非常に簡易な装置構成から成るシステムによって可能とした。   As described above, in the first embodiment, reading the breathing state, which was impossible before without using an unpractical large-scale device, is based on the very simple device configuration as described above. Made possible by a system consisting of:

具体的には、本来、呼吸状態を直接測定する為には、動作のある人間には装着させられないような大掛かりな装置を被験者に装着させなければならない。しかしながら、単に呼吸状態のみを判定する為には、そのような大掛かりな装置を用いて、例えば“何時何分に何ミリリットルの呼吸を行ったか”等の定量的に詳細な情報は不要である。本第1実施形態においては、この点に着目し、上述した心拍音データを分析処理することで、非常に簡易な装置構成から成るシステムによって呼吸状態の推定を可能とした。   Specifically, in order to directly measure the breathing state, a large-scale device that cannot be worn by a person who operates must be worn by the subject. However, in order to simply determine only the breathing state, quantitatively detailed information such as “how many hours and how many milliliters of breathing” is not necessary using such a large-scale device. In the first embodiment, paying attention to this point, the respiratory state can be estimated by a system having a very simple device configuration by analyzing the heartbeat data described above.

そして、呼吸状態の推定処理を、イベント識別の一手段として用いることで、イベント識別精度を向上させた。   The event identification accuracy is improved by using the respiratory state estimation process as a means of event identification.

以下、図10を参照して、前記心拍音除去データ処理手段700Bによる心拍音データの分析処理について詳細に説明する。   Hereinafter, the heartbeat data analysis processing by the heartbeat removal data processing means 700B will be described in detail with reference to FIG.

図10は、縦軸に周波数ωを取り且つ横軸に時間tを取ったグラフ、すなわち前記心拍音除去データを時間軸に沿って周波数マッピングしたグラフの一例を示す図である。このような前記心拍音除去データの周波数マッピングに基づいて、前記心拍音除去データ処理手段700Bは、例えば次のような推定処理を行うことができる
(推定例1)通常の会話に対応する周波数帯域に多くの信号が表れている時間帯には通常の会話が為されている時間帯であると推定することができる。
FIG. 10 is a diagram illustrating an example of a graph in which the vertical axis represents the frequency ω and the horizontal axis represents the time t, that is, a graph obtained by frequency mapping the heartbeat removal data along the time axis. Based on such frequency mapping of the heartbeat removal data, the heartbeat removal data processing means 700B can perform, for example, the following estimation processing (Estimation Example 1) frequency band corresponding to normal conversation It can be estimated that the time zone in which many signals appear is the time zone in which normal conversation is made.

(推定例2)緊急時の発声に対応する周波数帯に信号が表れている場合には、その時間帯に何らかの緊急事態が生じたと推定することができる。すなわち、このように周波数分析を行うことによって、発話であるか雑音であるか否かを識別することができる。具体的には、発話については高周波成分をほとんど含まず、且つ基本周波数(フォルマント)を含んでいる等の特徴が存在する。より詳細には、発話をしている時間の総計を例えば10秒乃至30秒単位で計測すること(換言すれば頻度を測ること)によって、会話を行っている状態を検出することができる。 (Estimation Example 2) When a signal appears in a frequency band corresponding to an utterance in an emergency, it can be estimated that some emergency has occurred in that time slot. That is, by performing the frequency analysis in this way, it is possible to identify whether it is an utterance or noise. Specifically, the utterance has characteristics such as containing almost no high-frequency component and a fundamental frequency (formant). More specifically, it is possible to detect the state of the conversation by measuring the total time during which the utterance is performed, for example, in units of 10 to 30 seconds (in other words, measuring the frequency).

(推定例3)雑音については高周波成分が大きく、且つ自己相関がほとんどない等の特徴が存在する為、このような特徴から雑音を推定することができる。より詳細には、雑音は衣服等が前記接触型マイクロフォン300Aを擦る等して生じることが多く、雑音がある時間の総計を例えば10秒乃至30秒単位で計測すること(換言すれば頻度を測ること)によって、身体の動きの程度を計測することができる。 (Estimation Example 3) Since noise has characteristics such as a large high-frequency component and almost no autocorrelation, the noise can be estimated from such characteristics. More specifically, noise often occurs when clothes or the like rub the contact-type microphone 300A, and the total amount of time in which noise is present is measured, for example, in units of 10 to 30 seconds (in other words, the frequency is measured). The degree of body movement can be measured.

(推定例4)
図10に示す信号51のように、低周波から高周波まで非常に広範囲に渡って表れている信号は一般に衣擦れの音である場合が多く、このような時間帯には、被験者が移動等している場合が多いと推定することができる。
(Estimation example 4)
As shown in the signal 51 shown in FIG. 10, a signal that appears in a very wide range from a low frequency to a high frequency is generally a rubbing sound. In such a time zone, the subject moves or the like. It can be estimated that there are many cases.

(推定例5)例えば300〜1000Hz付近の周波数帯は人間の声に対応する周波数帯であり、このような周波数帯に多くの信号が表れている時間帯は会話が行われている時間帯であると推定することができる。 (Estimation Example 5) For example, the frequency band near 300 to 1000 Hz is a frequency band corresponding to a human voice, and the time zone in which many signals appear in such a frequency band is the time zone in which conversation is performed. It can be estimated that there is.

(推定例6)会話が行われている時間帯は一般に心拍数の変化は少なく、呼吸の変化も少ない。従って、このような時間帯は精密作業してない時間帯であると推定することができる。 (Estimation Example 6) In general, there is little change in heart rate and little change in breathing during the time period in which conversation is performed. Therefore, it can be estimated that such a time zone is a time zone in which precision work is not performed.

(推定例7)図10に示すような周波数マッピングのグラフにおいて表れている信号の濃度が濃い時間帯は、単純に何らかの事態が生じた時間帯であると推定することができる。 (Estimation Example 7) A time zone in which the concentration of the signal appearing in the frequency mapping graph as shown in FIG. 10 is high can be simply estimated as a time zone in which some sort of situation has occurred.

図11は、上述した処理によって会話が行われていると推定された頻度の時間変化のグラフを示す図である。換言すれば、図11は、会話が行われた時間のパーセンテージの時間変化のグラフを示す図である。このような会話頻度の時間変化を参照することで、より正確なイベント識別を行うことが可能となる。具体的には、このグラフを参照することで、作業状態の変化時刻を容易に検出することができる。但し、ある程度の時間幅を以って推定をすることが好ましい。   FIG. 11 is a graph showing a time change graph of the frequency estimated that the conversation is performed by the above-described processing. In other words, FIG. 11 is a diagram showing a graph of the time change of the percentage of the time when the conversation was performed. By referring to such a change in conversation frequency over time, it becomes possible to perform more accurate event identification. Specifically, the change time of the work state can be easily detected by referring to this graph. However, it is preferable to estimate with a certain time width.

以下、図12A及び図12Bを参照して、多変量のパターン認識技術を利用した総合判定処理によるイベント識別について説明する。図12A及び図12Bは、多変量のパターン認識技術を利用した総合判定処理によるイベント識別の概念を示す図である。すなわち、上述した処理によって、イベント識別に利用可能な複数の情報を取得した後、それら複数の情報を用いて次の様な処理を行うことで、より精密なイベント識別の処理を行ってもよい。   Hereinafter, with reference to FIG. 12A and FIG. 12B, event identification by comprehensive determination processing using multivariate pattern recognition technology will be described. FIG. 12A and FIG. 12B are diagrams showing the concept of event identification by comprehensive determination processing using multivariate pattern recognition technology. In other words, after acquiring a plurality of pieces of information that can be used for event identification by the above-described processing, the following processing may be performed using the plurality of pieces of information to perform more precise event identification processing. .

なお、ここでは説明の便宜上、変量の数が3つの場合を例にして、多変量のパターン認識技術を利用した総合判定処理によるイベント識別について説明する。しかしながら、実際には変量の数は3つに限られないことは勿論である。   Here, for convenience of explanation, event identification by comprehensive determination processing using multivariate pattern recognition technology will be described by taking a case where the number of variables is three as an example. However, in practice, the number of variables is not limited to three.

まず、第1の変量として例えば“呼吸停止頻度”を設定し、第2の変量として例えば“呼吸停止頻度の時間変化”を設定し、第3の変量として例えば“衣擦れが生じた頻度”を設定する。そして、所定の時間帯におけるこれら変量について、図12Aに示すような三次元空間上においてプロットしていき、最も多くプロットされた領域についてパターン分類を行う。   First, for example, “breathing stop frequency” is set as the first variable, for example, “time change in breathing stop frequency” is set as the second variable, and “frequency at which clothing is rubbed” is set as the third variable, for example. To do. Then, these variables in a predetermined time zone are plotted on a three-dimensional space as shown in FIG. 12A, and pattern classification is performed on the most plotted area.

なお、ここでは説明の便宜上、図12Bに示すように各々の変量について、所定の閾値を境にして“大”又は“小”の2種に分類する場合を例に説明する。   Here, for convenience of explanation, as shown in FIG. 12B, the case where each variable is classified into two types of “large” or “small” with a predetermined threshold as a boundary will be described as an example.

すなわち、図12A及び図12Bに示す例では、第1の変量である“呼吸停止の頻度”は“小”であり、第2の変量である“呼吸停止頻度の時間変化”は“大”であり、第3の変量である“衣擦れが生じた頻度”も“大”である。この場合、当該時間帯を、図13に示す例では“パターンA”に分類する。なお、この“パターンA”は、当該時間帯が“作業状態の変化が検出された時間帯”であることを示している。   That is, in the example shown in FIGS. 12A and 12B, the first variable “frequency of breathing stop” is “small”, and the second variable “time change in breathing stop frequency” is “large”. In addition, the third variable “frequency of occurrence of rubbing” is also “large”. In this case, the time zone is classified as “pattern A” in the example shown in FIG. The “pattern A” indicates that the time zone is “a time zone in which a change in work state is detected”.

そして、このように“作業状態の変化が検出された時間帯”であると判定された時間帯(時刻)に所定のマーキングを付せば、該マーキング前後の時間帯の音声や映像等のみを確認するだけで、問題が生じた場面を素早く且つ容易に検出することができる。   Then, if a predetermined marking is added to the time zone (time) determined to be the “time zone in which a change in the working state” is detected in this way, only audio and video in the time zone before and after the marking can be obtained. By simply confirming, it is possible to quickly and easily detect a scene where a problem has occurred.

上述したように、複数の変量に基づいてイベント識別の処理を行うことで、より精度の高い推定処理を行うことができる。   As described above, by performing event identification processing based on a plurality of variables, more accurate estimation processing can be performed.

なお、以上説明した推定処理によって取得した推定結果は、不図示の記憶手段に記憶する。前記心拍音データ処理手段700A及び前記心拍音除去データ処理手段700Bに、前記推定処理結果を記憶する為の記憶手段を設けてもよい。   In addition, the estimation result acquired by the estimation process demonstrated above is memorize | stored in a memory | storage means not shown. The heartbeat sound data processing means 700A and the heartbeat sound removal data processing means 700B may be provided with storage means for storing the estimation processing result.

以上説明したように、本第1実施形態によれば、例えば手術等の一連の作業行為において、いつ誰が何を行ったかを、精密に且つ時系列に沿って容易に一覧で把握することを簡易な装置構成で実現するイベント識別システムを提供することができる。従って、例えば10時間以上に及ぶ長大な作業行為の記録全てを確認せずとも、所望のイベントが生じた時間帯のみを検出して確認することが可能となる。   As described above, according to the first embodiment, for example, in a series of work activities such as surgery, it is easy to grasp who performed what and when in a list easily and accurately in time series. It is possible to provide an event identification system realized by a simple device configuration. Therefore, for example, it is possible to detect and confirm only the time zone in which a desired event has occurred, without confirming all the records of a long work activity for 10 hours or more.

本第1実施形態に係るイベント識別システムを適用可能な作業行為としては、具体的には、例えば手術、及び飛行機や自動車や電車等の操縦等を挙げることができる。例えば飛行機や自動車や電車等の操縦において、本第1実施形態に係るイベント識別システムを適用すれば、事故が起きた際に、当該事故の何秒前から運転手が危険を感じていたか等を正確に知ることができる。また、実際の事故等に至らなかった場合であっても、本第1実施形態に係るイベント識別システムを適用することで一連の作業行為における発生イベントは全て記録且つ分析される為、従来のように所謂ヒヤリハットが報告されずに看過されてしまい、その後に実際の事故等に繋がってしまうという問題を解決することができる。   Specific examples of work actions to which the event identification system according to the first embodiment can be applied include surgery, and operation of airplanes, cars, trains, and the like. For example, if the event identification system according to the first embodiment is applied in the operation of an airplane, a car, a train, etc., when an accident occurs, how many seconds before the accident the driver felt dangerous. Know exactly. Moreover, even if an actual accident has not occurred, all events occurring in a series of work activities are recorded and analyzed by applying the event identification system according to the first embodiment. In other words, it is possible to solve the problem that a so-called near-miss is overlooked without being reported, and subsequently leads to an actual accident or the like.

本第1実施形態に係るイベント識別システムによれば、各種情報を時系列に沿って記録する為、前記に例示したような作業行為において、例えば異常状態等の何らかのイベントが発生した時間帯を一目瞭然で把握することができる。   According to the event identification system according to the first embodiment, since various types of information are recorded in chronological order, the time zone in which some event such as an abnormal state has occurred in the work act illustrated above can be seen at a glance. Can be grasped.

また、以上説明したように、本第1実施形態に係るイベント識別システムによれば、図13に示すように呼吸停止頻度、会話頻度、及び動作頻度についての経時的な情報を得ることができる。つまり、前記接触型マイクロフォン300Aの装着者の作業状態が経時的に一覧表示によって提示される。   Further, as described above, according to the event identification system according to the first embodiment, it is possible to obtain information over time about the respiratory stop frequency, the conversation frequency, and the operation frequency as shown in FIG. That is, the working state of the wearer of the contact microphone 300A is presented in a list display with time.

(変形例)
さらに、本第1実施形態に係るイベント識別システムに、音声認識技術を組み合わせることで、或る作業行為中に発される特定の重要なキーワードが、当該作業行為が行われた全体の中でどの時点に発されたかを一覧表示することができる。
(Modification)
Furthermore, by combining the event recognition system according to the first embodiment with a voice recognition technology, a specific important keyword issued during a certain work action is determined as to which of the entire work action is performed. It is possible to display a list of whether or not it was issued at the time.

なお、音声認識技術を用いた手術の分析等は過去に試みられている技術であるが、成功に至っていない。成功に至っていない理由としては、従来の音声認識技術では、環境雑音や他の話者の発話等が、分析対象の音響データに混入してしまうと、音声認識の成功率が極めて低くなる為である。更には、例えば手術室や作業場などでは反響音が大きかったり、器械等が生じる雑音が大きい為、音声認識を正確に行うこと自体が困難である。   Analysis of surgery using voice recognition technology has been attempted in the past, but has not been successful. The reason for the lack of success is that, with conventional speech recognition technology, if environmental noise or the speech of other speakers is mixed into the acoustic data to be analyzed, the success rate of speech recognition will be extremely low. is there. Further, for example, in an operating room or a work place, the echo sound is loud or the noise generated by the instrument is large, so that it is difficult to accurately perform voice recognition itself.

ところで、従来の音声認識技術では、音声認識対象語彙の辞書に存在するテンプレートとのマッチングによる音声認識を行っている。しかしながら、手術等の作業行為中においては、ほとんどの場合、発話としては符牒や掛け声(“それ”、“はい”、“やって”等)のみで意思疎通ができてしまう。そして、このような掛け声等は、当然ながら冗長性が少なく、上述したテンプレートとのマッチングを高精度で行うことはできない。このような事情も、音声認識の成功率が低いことの一因として挙げることができる。   By the way, in the conventional speech recognition technology, speech recognition is performed by matching with a template existing in a dictionary of speech recognition target vocabularies. However, during work activities such as surgery, in most cases, it is possible to communicate with only utterances and shouts (“it”, “yes”, “do”, etc.) as utterances. Such a shout or the like naturally has little redundancy and cannot be matched with the template described above with high accuracy. Such circumstances can also be cited as a cause of the low success rate of speech recognition.

さらに言えば、従来の音声認識技術においては、音声データに基づいてテキスト(文字列)データを作成することを目的としている。しかしながら、上述したような掛け声等では音声認識が成功しても意味のあるテキストデータは得られない。   Furthermore, the conventional speech recognition technology aims to create text (character string) data based on speech data. However, meaningful text data cannot be obtained with the above-mentioned call or the like even if the speech recognition is successful.

一方、本第1実施形態においては、上述したように被験者に直接装着させる接触型マイクロフォン300Aを利用することで、反響音や他の話者や機器等に起因する雑音による悪影響を非常に少なくすることができる。この為、高品質の音声データを得ることができる。つまり、本第1実施形態に係るイベント識別システムと、既存の音声認識技術とを組み合わせることで、或る程度の正確さで重要なキーワードを拾い出す(抽出する)ことが可能となる。   On the other hand, in the first embodiment, by using the contact-type microphone 300A that is directly worn by the subject as described above, adverse effects due to echoes and noise caused by other speakers, devices, etc. are greatly reduced. be able to. For this reason, high-quality audio data can be obtained. That is, by combining the event identification system according to the first embodiment and the existing speech recognition technology, it is possible to pick up (extract) important keywords with a certain degree of accuracy.

さらに、例えば手術等の作業においては、例えば“待って”、“危ない”、“止めろ”等の重要な意味を有する発話については特に明瞭に発話されることが多い。従って、このような重要な意味を有する発話(キーワード)音声認識で発見できる見込みが比較的高い。   Furthermore, in operations such as surgery, utterances having important meanings such as “wait”, “dangerous”, and “stop” are often uttered particularly clearly. Therefore, it is relatively highly probable that they can be found by speech (keyword) speech recognition having such an important meaning.

そこで、本変形例では、発話の内容を認識することを目的にするのではなく、重要な発話が行われた可能性が高い時刻又は時間帯を検出することを目的として、既存の音声認識技術を利用する。つまり、既存の音声認識技術を本第1実施形態に適用することで、重要な発話に係るキーワードを検出する。なお、このようにして検出した箇所にマーク(いわゆるキュー)を付して、後の検索性を高めても勿論よい。   Therefore, in this modified example, the existing speech recognition technology is used not for the purpose of recognizing the content of an utterance but for the purpose of detecting a time or a time zone when an important utterance is likely to be performed. Is used. In other words, keywords related to important utterances are detected by applying existing speech recognition technology to the first embodiment. Of course, a mark (so-called cue) may be attached to the location detected in this way to improve the later searchability.

[第2実施形態]
以下、本発明の第2実施形態に係るイベント識別システムについて説明する。詳細は後述するが、本第2実施形態においては、後述する医療現場表示システムに前記第1実施形態に係るイベント識別システムを適用する。これにより、時刻を正確に合わせて収集した多様なセンサの情報に基づいて作業状態を示す情報を抽出し、該抽出した情報に基づいて、映像等の記録のうち重要な部分を推定してマーク(いわゆるキュー)を付することができる。以下、詳細に説明する。
[Second Embodiment]
The event identification system according to the second embodiment of the present invention will be described below. Although details will be described later, in the second embodiment, the event identification system according to the first embodiment is applied to a medical site display system to be described later. As a result, information indicating the working state is extracted based on information of various sensors collected at the exact time, and based on the extracted information, an important part of the recording of the video or the like is estimated and marked. (So-called queue) can be attached. Details will be described below.

図14は、医療現場を記録して表示する医療現場表示システム101の機能構成を示す図である。   FIG. 14 is a diagram illustrating a functional configuration of the medical site display system 101 that records and displays a medical site.

医療現場表示システム101は、手術室等の医療現場を映像によって記録するとともに、医療現場のスタッフが誰であるかをその存在位置と共に識別し、記録した映像上で医療現場内のスタッフを識別表示するシステムである。医療現場を映像によって再現して医療の質及び安全向上に関わる分析等を行うために用いられる。   The medical site display system 101 records a medical site such as an operating room by video, identifies who the medical site staff is along with its location, and identifies and displays the staff in the medical site on the recorded video System. It is used to reproduce medical scenes with images and perform analysis related to improving medical quality and safety.

この医療現場表示システム101は、撮影装置102と、識別部103と、位置計測部104と、映像加工装置105と、表示装置106と、入力装置107とにより構成されている。撮影装置102と識別部103と位置計測部104と入力装置107は、映像加工装置105に対して信号入力が可能に接続されている。映像加工装置105は、表示装置106に対しては信号入力が可能に接続されている。   The medical site display system 101 includes an imaging device 102, an identification unit 103, a position measurement unit 104, an image processing device 105, a display device 106, and an input device 107. The imaging device 102, the identification unit 103, the position measurement unit 104, and the input device 107 are connected to the video processing device 105 so that signals can be input. The video processing device 105 is connected to the display device 106 so that signals can be input.

撮影装置102は、医療現場に設置されており、医療現場の映像を撮影する。撮影装置102は、複数台設置される場合もある。この撮影装置102は、例えばビデオカメラである。識別部103は、医療現場内に存在するスタッフが誰であるかを識別する。位置計測部104は、識別部103でその存在が確認されたスタッフの位置座標を識別部103の設置位置を原点とした計測系で計測する。映像加工装置105は、位置計測部104で計測された位置が映像上のどの画素に対応するか計算し、識別部103で識別されたスタッフのスタッフ識別情報をこの計算された画素に対応させて重ね合わせた映像を生成して表示装置106に表示させる。表示装置106は、液晶ディスプレイやCRTディスプレイ等のモニタである。入力装置107は、映像加工装置105に対して操作信号を入力するキーボードやマウスである。   The imaging device 102 is installed in a medical site and captures an image of the medical site. There may be a case where a plurality of imaging devices 102 are installed. The photographing apparatus 102 is, for example, a video camera. The identification unit 103 identifies who the staff is in the medical field. The position measurement unit 104 measures the position coordinates of the staff whose existence is confirmed by the identification unit 103 using a measurement system with the installation position of the identification unit 103 as the origin. The image processing device 105 calculates which pixel on the image corresponds to the position measured by the position measurement unit 104, and associates the staff identification information of the staff identified by the identification unit 103 with the calculated pixel. The superimposed video is generated and displayed on the display device 106. The display device 106 is a monitor such as a liquid crystal display or a CRT display. The input device 107 is a keyboard or mouse that inputs operation signals to the video processing device 105.

図15は、識別部103と位置計測部104の構成の具体例を示すブロック図である。   FIG. 15 is a block diagram illustrating a specific example of the configuration of the identification unit 103 and the position measurement unit 104.

識別部103は、RFタグ121と無線送受信部122とから構成される。位置計測部104は、超音波発振器131と超音波センサ132と計測系位置計算部133とから構成される。   The identification unit 103 includes an RF tag 121 and a wireless transmission / reception unit 122. The position measurement unit 104 includes an ultrasonic oscillator 131, an ultrasonic sensor 132, and a measurement system position calculation unit 133.

RFタグ121と超音波発信器131とは、信号発信体181に内蔵されている。信号発信体181は、スタッフに装着されている。無線送受信部122と超音波センサ132と計測系位置計算部133は、発信体計測装置182に内蔵される。この発信体計測装置182は、さらに制御信号発信部183を備える。発信体計測装置182は、医療現場内に設置される。   The RF tag 121 and the ultrasonic transmitter 131 are built in the signal transmitter 181. The signal transmitter 181 is attached to the staff. The wireless transmission / reception unit 122, the ultrasonic sensor 132, and the measurement system position calculation unit 133 are built in the transmitter measurement apparatus 182. The transmitter measurement device 182 further includes a control signal transmitter 183. The transmitter measuring device 182 is installed in a medical site.

RFタグ121は、ICチップとアンテナを含み構成される。ICチップには、信号発信体81を装着しているスタッフの識別符号が予め記憶されている。スタッフの識別符号は、スタッフ毎に一意に割り当てられたIDであり、スタッフ識別情報の一種である。RFタグ121は、外部から発せられた電波をアンテナで受信する。外部から電波を受信すると共振作用によってICチップに供給される起電力が生じ、RFタグ121は、ICチップが記憶しているスタッフの識別符号をアンテナを介して送信する。   The RF tag 121 includes an IC chip and an antenna. The identification code of the staff wearing the signal transmitter 81 is stored in advance in the IC chip. The staff identification code is an ID uniquely assigned to each staff, and is a kind of staff identification information. The RF tag 121 receives radio waves emitted from the outside with an antenna. When an electric wave is received from the outside, an electromotive force supplied to the IC chip is generated by a resonance action, and the RF tag 121 transmits the staff identification code stored in the IC chip via the antenna.

また、RFタグ121は、外部からスタッフの識別符号が含まれた制御信号を受信し、受信したスタッフの識別符号がICチップ内に記憶されていると、超音波発信器131にトリガ信号を出力する。   Further, the RF tag 121 receives a control signal including a staff identification code from the outside, and outputs a trigger signal to the ultrasonic transmitter 131 when the received staff identification code is stored in the IC chip. To do.

無線送受信部122は、アンテナを含み構成される。無線送受信部122は、RFタグ121に起電力を生じさせる電波を発信し、またRFタグ121から送信されたスタッフの識別符号を受信する。   The wireless transmission / reception unit 122 includes an antenna. The wireless transmission / reception unit 122 transmits a radio wave that generates an electromotive force in the RF tag 121, and receives a staff identification code transmitted from the RF tag 121.

識別部103では、RFタグ121から無線送受信部122にスタッフの識別符号が送信されることにより、その識別符号で表されるスタッフが特定される。   In the identification unit 103, the staff identification code is transmitted from the RF tag 121 to the wireless transmission / reception unit 122, whereby the staff represented by the identification code is specified.

制御信号発信部183は、信号発信体181に対して制御信号を送信する。制御信号には、位置計測するスタッフの識別符号が含まれる。制御信号発信部183は、無線送受信部122がスタッフの識別符号を受信すると、その受信を契機にこの受信したスタッフの識別符号を制御信号に含めて送信する。複数のスタッフの識別符号を受信していると、混信をさけるために所定間隔おいて順次制御信号に含めて送信する。   The control signal transmitter 183 transmits a control signal to the signal transmitter 181. The control signal includes the identification code of the staff whose position is to be measured. When the wireless transmission / reception unit 122 receives the staff identification code, the control signal transmission unit 183 includes the received staff identification code in the control signal and transmits it. When a plurality of staff identification codes are received, they are sequentially included in the control signal and transmitted at a predetermined interval in order to avoid interference.

超音波発振器131は、RFタグ121からのトリガ信号の入力を契機に超音波信号を外部へ発振する。   The ultrasonic oscillator 131 oscillates an ultrasonic signal to the outside when the trigger signal is input from the RF tag 121.

超音波センサ132は、超音波発振器131が発振した超音波信号を受信する。この超音波センサ132は、所定距離離間して複数個が医療現場に設置されている。各超音波センサ132は、設置された位置と信号発信体181との距離関係によって位相差が異なった超音波を受信する。   The ultrasonic sensor 132 receives the ultrasonic signal generated by the ultrasonic oscillator 131. A plurality of ultrasonic sensors 132 are installed at a medical site at a predetermined distance. Each ultrasonic sensor 132 receives ultrasonic waves having different phase differences depending on the distance relationship between the installed position and the signal transmitter 181.

計測系位置計算部133は、各超音波センサ132が受信した超音波の位相差から、超音波センサ132を原点とした計測系座標(Xs,Ys,Zs)で表された信号発信体181の計測系位置情報を算出する。   The measurement system position calculation unit 133 determines the signal transmitter 181 represented by measurement system coordinates (Xs, Ys, Zs) with the ultrasonic sensor 132 as the origin from the phase difference of the ultrasonic waves received by each ultrasonic sensor 132. Measurement system position information is calculated.

位置計測部104は、存在が確認されたスタッフが装着している信号発信体181にそれが記憶しているスタッフの識別符号を送信することで、その信号発信体181のみを呼応させて超音波を発振させ、受信した超音波からその信号発信体181の位置を計算することで、位置計算された信号発信体181を装着しているスタッフの位置を計測系座標において取得する。   The position measuring unit 104 transmits the identification code of the staff stored in the signal transmitter 181 worn by the staff whose existence has been confirmed, so that only the signal transmitter 181 is caused to respond to the ultrasonic wave. And the position of the signal transmitter 181 is calculated from the received ultrasonic wave, so that the position of the staff wearing the signal transmitter 181 whose position has been calculated is acquired in the measurement system coordinates.

発信体計測装置182は、識別部3が取得したスタッフを識別する識別符号と、計測系位置計算部133が取得したスタッフの計測系位置情報とを対にして映像加工装置105に出力する。   The transmitter measurement device 182 outputs the identification code for identifying the staff acquired by the identification unit 3 and the measurement system position information of the staff acquired by the measurement system position calculation unit 133 to the video processing device 105 in pairs.

図16は、映像加工装置5の構成の具体例を示すブロック図である。   FIG. 16 is a block diagram illustrating a specific example of the configuration of the video processing device 5.

映像加工装置105は、映像記録部151と位置記憶部152と映像系位置計算部153と映像系位置記憶部154と表示制御部155とスタッフデータベース156とにより構成される。   The video processing apparatus 105 includes a video recording unit 151, a position storage unit 152, a video system position calculation unit 153, a video system position storage unit 154, a display control unit 155, and a staff database 156.

映像記録部151は、例えばHDD等の磁気記憶回路やフラッシュメモリ等を含み構成される。この映像記録部151は、撮影装置102から出力された映像信号を映像フレーム毎に記憶しておく。映像信号の記録の際には、その映像フレームが撮影された時刻を表す時刻情報を映像フレーム毎に付して記憶しておく。   The video recording unit 151 includes, for example, a magnetic storage circuit such as an HDD, a flash memory, and the like. The video recording unit 151 stores the video signal output from the photographing apparatus 102 for each video frame. When recording a video signal, time information indicating the time when the video frame was shot is attached to each video frame and stored.

位置記憶部152は、例えばRAM等の半導体記憶回路を含み構成される。図17に示すように、位置記憶部152は、発信体計測装置82から出力されたスタッフの識別符号とそのスタッフの計測系位置情報との対を記憶しておく。このスタッフの識別符号とそのスタッフの計測系位置情報の対には、計測された時刻を表す時刻情報が付されて記憶される。   The position storage unit 152 includes a semiconductor storage circuit such as a RAM, for example. As illustrated in FIG. 17, the position storage unit 152 stores a pair of a staff identification code output from the transmitter measurement apparatus 82 and the staff measurement system position information. A pair of the staff identification code and the staff measurement system position information is stored with time information indicating the measured time.

映像系位置計算部153は、発信体計測装置182から出力された計測系位置情報から、信号発信体181、即ち信号発信体181を装着しているスタッフが映像上のどの画素に映っているかを表す映像系位置情報を計算する。映像系位置計算部153は、まず発信体計測装置182から出力されたスタッフの計測系位置情報を撮影装置102を原点とした撮影系座標(Xv,Yv,Zv)に変換し、さらにその撮影系座標で表される空間が投影される画素(Xn,Yn)を算出することで、映像系位置情報を取得する。   Based on the measurement system position information output from the transmitter measurement device 182, the video system position calculation unit 153 determines which pixel on the image the signal transmitter 181, that is, the staff wearing the signal transmitter 181 is reflected on. The video system position information to be represented is calculated. The video system position calculation unit 153 first converts staff measurement system position information output from the transmitter measurement apparatus 182 into imaging system coordinates (Xv, Yv, Zv) with the imaging apparatus 102 as the origin, and further the imaging system. Image system position information is acquired by calculating a pixel (Xn, Yn) onto which a space represented by coordinates is projected.

映像系位置記憶部154は、例えばHDD等の磁気記憶回路やフラッシュメモリ等を含み構成される。映像系位置記憶部154は、図18に示すように、映像系位置計算部153で計算して得られた映像系位置情報を記憶する。また、映像系位置記憶部154は、映像系位置情報の記憶に際し、算出元となった計測系位置情報に関連づけられていたスタッフの識別符号及び時刻情報を算出先の映像系位置情報に関連づけて記憶する。尚、生データとして算出元となった計測系位置情報も関連づけて記憶するようにしてもよい。   The video system position storage unit 154 includes a magnetic storage circuit such as an HDD, a flash memory, and the like. As shown in FIG. 18, the video system position storage unit 154 stores the video system position information calculated by the video system position calculation unit 153. Further, when storing the video system position information, the video system position storage unit 154 associates the staff identification code and time information associated with the measurement system position information that is the calculation source with the video system position information of the calculation destination. Remember. Note that measurement system position information that is a calculation source may be stored as raw data in association with each other.

表示制御部155は、映像系位置計算部153で計算された映像系位置情報に対応させて、位置記憶部152に記憶されたスタッフの識別符号又はこれに加えて他のスタッフ識別情報を重ね合わせた映像を生成し、表示装置6に表示させる。   The display control unit 155 superimposes the staff identification code stored in the position storage unit 152 or other staff identification information in addition to this in correspondence with the video system position information calculated by the video system position calculation unit 153. The generated video is generated and displayed on the display device 6.

図19は、この医療現場表示システム101の動作を示すフローチャートである。   FIG. 19 is a flowchart showing the operation of the medical site display system 101.

撮影装置102は、医療現場を撮影し(S01)、医療現場の映像を映像加工装置105に出力する(S02)。映像加工装置5では、撮影装置102から出力された映像に対して映像フレーム毎に時刻情報を付していき(S03)、映像を映像フレーム毎に時系列で映像記録部151に記憶する(S04)。   The imaging device 102 images a medical site (S01) and outputs an image of the medical site to the video processing device 105 (S02). The video processing device 5 attaches time information for each video frame to the video output from the photographing device 102 (S03), and stores the video in the video recording unit 151 in time series for each video frame (S04). ).

この撮影装置102の医療現場の撮影と並行して、発信体計測装置182では、無線送受信部122が医療現場内に存在する信号発信体181に起電力を生じさせる電波を発信する(S05)。この電波発信は一定間隔毎に行う。   In parallel with the imaging of the medical site by the imaging device 102, in the transmitter measuring device 182, the wireless transmission / reception unit 122 transmits a radio wave that generates an electromotive force to the signal transmitter 181 existing in the medical site (S05). This radio wave transmission is performed at regular intervals.

発信体計測装置182から電波が発せられると、信号発信体181では、RFタグ121がその電波を受信して共振作用によってICチップに起電力を供給し、ICチップに予め記憶されているスタッフの識別符号を読み出して信号として送信する(S06)。   When a radio wave is emitted from the transmitter measuring device 182, in the signal transmitter 181, the RF tag 121 receives the radio wave, supplies an electromotive force to the IC chip by a resonance action, and the staff of the staff stored in advance in the IC chip. The identification code is read and transmitted as a signal (S06).

発信体計測装置182では、無線送受信部122がスタッフの識別符号が含まれた信号を受信すると、この受信したスタッフの識別符号を一時記憶しておく(S07)。発信体計測装置182では、スタッフの識別符号を取得すると、制御信号発信部183がこの受信したスタッフの識別符号を含んだ制御信号を医療現場内に発信する(S08)。   When the transmitter / receiver 122 receives the signal including the staff identification code, the transmitter measuring apparatus 182 temporarily stores the received staff identification code (S07). In the transmitter measuring device 182, when the staff identification code is acquired, the control signal transmission unit 183 transmits a control signal including the received staff identification code to the medical site (S08).

信号発信体181では、RFタグ121により、この制御信号に含まれるスタッフの識別符号が予め記憶しているスタッフの識別符号と同一か否かが判断され(S09)、受信した制御信号に含まれるスタッフの識別符号をICチップに記憶していなければ(S09,No)、この制御信号を破棄して処理を終了する。発信体計測装置82による電波の発信は所定間隔毎に繰り返し行われ、その度にこのS05からS09の処理が繰り返される。   In the signal transmitter 181, it is determined by the RF tag 121 whether or not the staff identification code included in the control signal is the same as the staff identification code stored in advance (S <b> 09), and is included in the received control signal. If the stuff identification code is not stored in the IC chip (S09, No), the control signal is discarded and the process is terminated. Transmission of radio waves by the transmitter measuring device 82 is repeated at predetermined intervals, and the processing from S05 to S09 is repeated each time.

一方、受信した制御信号に含まれるスタッフの識別符号をICチップに記憶していれば(S09,Yes)、RFタグ121は、超音波発振器131にトリガ信号を出力する(S10)。超音波発振器131は、トリガ信号の入力を契機として超音波信号を発振する(S11)。即ち、信号発信体181によるスタッフの識別符号の送信によってスタッフの存在が識別され、このスタッフの識別符号を制御信号として用いることで、存在が識別されたスタッフの信号発信体181のみが呼応して位置計測のための超音波信号を発振する。   On the other hand, if the stuff identification code included in the received control signal is stored in the IC chip (S09, Yes), the RF tag 121 outputs a trigger signal to the ultrasonic oscillator 131 (S10). The ultrasonic oscillator 131 oscillates an ultrasonic signal triggered by the input of the trigger signal (S11). That is, the presence of the staff is identified by the transmission of the identification code of the staff by the signal transmitter 181. By using the identification code of the staff as a control signal, only the staff signal transmitter 181 whose existence is identified responds. An ultrasonic signal for position measurement is oscillated.

発信体計測装置182では、信号発信体181から発せられた超音波信号を超音波センサ132が受信すると、計測系位置計算部133がこの受信した超音波の位相差から信号発信体181を装着したスタッフの計測系位置情報を算出する(S12)。   In the transmitter measuring device 182, when the ultrasonic sensor 132 receives the ultrasonic signal emitted from the signal transmitter 181, the measurement system position calculator 133 attaches the signal transmitter 181 from the phase difference of the received ultrasonic wave. The measurement system position information of the staff is calculated (S12).

そして、発信体計測装置182では、一時記憶しておいたスタッフの識別符号と計測系位置情報とを対にして映像加工装置105に出力する(S13)。   Then, the transmitter measurement apparatus 182 outputs a pair of the staff identification code and the measurement system position information that are temporarily stored to the video processing apparatus 105 (S13).

映像加工装置105では、入力されたスタッフの識別符号と計測系位置情報の対に時刻情報を付していき(S14)、時系列で位置記憶部52に記憶させていく(S15)。   In the video processing apparatus 105, time information is attached to the pair of the input staff identification code and the measurement system position information (S14), and is stored in the position storage unit 52 in time series (S15).

映像加工装置105では、映像系位置計算部153が計測系位置情報を位置記憶部152から読み出して、読み出した計測系位置情報を、信号発信体181を装着しているスタッフが映像上のどの画素に映っているかを表す映像系位置情報に変換する(S16)。そして、映像系位置計算部153は、変換元の計測系位置情報に関連づけられていたスタッフの識別符号及び時刻情報を、映像系位置情報に関連づけつつ、この映像系位置情報を映像系位置記憶部154に記憶させる(S17)。   In the video processing apparatus 105, the video system position calculation unit 153 reads out the measurement system position information from the position storage unit 152, and the staff wearing the signal transmitter 181 uses the read measurement system position information as to which pixel on the video. (S16). Then, the video system position calculation unit 153 associates the identification code and time information of the staff associated with the measurement system position information of the conversion source with the video system position information, and stores the video system position information with the video system position storage unit. It memorize | stores in 154 (S17).

映像系位置情報を取得すると、映像加工装置105では、表示制御部155が、映像記録部151から映像フレームを順次読み出し、映像系位置記憶部154から映像フレームと同時刻の映像系位置情報とスタッフの識別情報を読み出し、映像系位置情報が表す画素に対応させてスタッフの識別符号又はこれに加えて他のスタッフ識別情報を重畳させた映像を生成する(S18)。表示制御部155は、この生成した映像を表示装置106に出力し表示装置106に表示させる(S19)。   When the video system position information is acquired, in the video processing device 105, the display control unit 155 sequentially reads video frames from the video recording unit 151, and the video system position information and the staff at the same time as the video frames are read from the video system position storage unit 154. The identification information is read out, and an image in which the staff identification code or other staff identification information is superimposed in correspondence with the pixel represented by the video system position information is generated (S18). The display control unit 155 outputs the generated video to the display device 106 and displays it on the display device 106 (S19).

以上の動作が撮影装置102で映像を撮影し、信号発信体181及び信号受信体182でスタッフの識別及び位置計測を行っている間、順次繰り返される。尚、映像記録部151と映像系位置記憶部154に記憶された両データは、この医療現場表示システム101でいつでも再生が可能となるように、対にしてHDD等の不揮発性メモリに記憶され、又は対にしてDVDやHD DVD等の可搬記憶媒体に記憶される。   The above operations are sequentially repeated while the image capturing apparatus 102 captures an image and the signal transmitting body 181 and the signal receiving body 182 identify the staff and measure the position. Both data stored in the video recording unit 151 and the video system position storage unit 154 are stored in pairs in a nonvolatile memory such as an HDD so that the data can be reproduced at any time by the medical site display system 101. Alternatively, it is stored in a portable storage medium such as a DVD or HD DVD as a pair.

映像系位置計算部153による計測系座標(Xs,Ys,Zs)で表現された計測系位置情報から映像系座標(Xn,Yn)で表現された映像系位置情報への変換についてさらに詳細に説明する。   The conversion from the measurement system position information expressed by the measurement system coordinates (Xs, Ys, Zs) to the video system position information expressed by the video system coordinates (Xn, Yn) by the video system position calculation unit 153 will be described in more detail. To do.

図20は、撮影装置102と位置計測部104の受信側である超音波センサ132の設置状態を示す模式図である。   FIG. 20 is a schematic diagram illustrating an installation state of the ultrasonic sensor 132 on the receiving side of the imaging apparatus 102 and the position measurement unit 104.

撮影装置102と超音波センサ132とは物理的な都合上別箇所に設置されているため、撮影装置102が撮影した空間の撮影系座標(Xv,Yv,Zv)と位置計測部104が計測したスタッフの計測系座標(Xs,Ys,Zs)とは、座標系が一致していない。   Since the imaging device 102 and the ultrasonic sensor 132 are installed at different locations for physical reasons, the imaging system coordinates (Xv, Yv, Zv) of the space imaged by the imaging device 102 and the position measurement unit 104 measured. The coordinate system does not coincide with the staff measurement system coordinates (Xs, Ys, Zs).

位置計測部104で測定したスタッフの位置が、撮影装置102で撮影した映像上のどの画素に対応するかを算出するためには、計測系座標(Xs,Ys,Zs)と撮影系座標(Xv,Yv,Zv)との関係、及び撮影系座標(Xv,Yv,Zv)と撮影装置102の撮像素子面の映像系座標(Xn,Yn)との関係が既知でなければならない。   In order to calculate which pixel on the image captured by the imaging apparatus 102 corresponds to the position of the staff measured by the position measurement unit 104, the measurement system coordinates (Xs, Ys, Zs) and the imaging system coordinates (Xv) , Yv, Zv) and the relationship between the imaging system coordinates (Xv, Yv, Zv) and the video system coordinates (Xn, Yn) of the imaging device surface of the imaging device 102 must be known.

まず、計測系座標s=(Xs,Ys,Zs)と撮影系座標(Xv,Yv,Zv)とは、平行移動と、X軸とY軸とZ軸を中心とする回転で関係付けられ、それぞれ以下の行列で表すことができる。

Figure 2010005326
First, the measurement system coordinates s = (Xs, Ys, Zs) and the imaging system coordinates (Xv, Yv, Zv) are related by translation and rotation around the X, Y, and Z axes. Each can be represented by the following matrix.
Figure 2010005326

ここで、x0,y0,z0は平行移動量。

Figure 2010005326
Here, x0, y0, and z0 are parallel movement amounts.
Figure 2010005326

ここで、θxはX軸まわりの回転角。

Figure 2010005326
Here, θx is a rotation angle around the X axis.
Figure 2010005326

ここで、θyはY軸まわりの回転角。

Figure 2010005326
Here, θy is a rotation angle around the Y axis.
Figure 2010005326

ここで、θzはZ軸まわりの回転角。   Here, θz is the rotation angle around the Z axis.

上記の(数1)〜(数4)により、計測系座標(Xs,Ys,Zs)と撮影系座標(Xv,Yv,Zv)との関係は、以下の(数5)のように表すことができる。

Figure 2010005326
From the above (Equation 1) to (Equation 4), the relationship between the measurement system coordinates (Xs, Ys, Zs) and the imaging system coordinates (Xv, Yv, Zv) is expressed as the following (Equation 5). Can do.
Figure 2010005326

(数5)式中のx0、y0、z0、θx、θy、θzが未知数であり、これらの値が分かれば、計測系と撮影系が完全に対応付けられる。   In Equation (5), x0, y0, z0, θx, θy, and θz are unknown numbers, and if these values are known, the measurement system and the imaging system are completely associated with each other.

さらに、撮影系座標(Xv,Yv,Zv)とその映像系座標(Xn,Yn)との関係は、図21のように示され、撮影装置102のピンホールを撮影系の原点とし、ピンホールと撮影装置102の撮像素子表面との距離をZ0とした場合、撮影系座標(Xv,Yv,Zv)とその映像系座標(Xn,Yn)とは以下(数6)及び(数7)により表される。

Figure 2010005326
Further, the relationship between the imaging system coordinates (Xv, Yv, Zv) and the video system coordinates (Xn, Yn) is shown as in FIG. 21, where the pinhole of the imaging apparatus 102 is the origin of the imaging system, and the pinhole. When the distance between the image pickup device 102 and the image pickup device surface is Z0, the shooting system coordinates (Xv, Yv, Zv) and the video system coordinates (Xn, Yn) are expressed by the following (Equation 6) and (Equation 7). expressed.
Figure 2010005326

Figure 2010005326
Figure 2010005326

尚、ここでは簡単のためにピンホールカメラの例を挙げたが、複数のレンズを組み合わせたより複雑なビデオカメラの場合であってもレンズ系に応じて焦点距離等を加味して計算する。   Here, for the sake of simplicity, an example of a pinhole camera has been described. However, even in the case of a more complicated video camera in which a plurality of lenses are combined, calculation is performed in consideration of the focal length and the like according to the lens system.

映像系位置計算部153は、予め(数5)、(数6)、(数7)、及び距離Z0とから得られる映像系座標(Xn,Yn)と未知数x0、y0、z0、θx、θy、θzとの関係式E1を記憶している。   The video system position calculation unit 153 calculates the video system coordinates (Xn, Yn) obtained from (Equation 5), (Equation 6), (Equation 7), and the distance Z0 in advance and the unknowns x0, y0, z0, θx, θy. , Θz is stored.

医療現場表示システム101の設置時には、医療現場内にマーカが置かれて位置計測及び撮影されることによってマーカの計測系座標と映像系座標とを取得しておく。映像系位置計算部153は、このマーカの計測系座標と映像系座標との関係から、未知数x0、y0、z0、θx、θy、θzの具体的値をこの予め記憶している関係式E1を用いて計算し、映像系座標(Xn,Yn)と計測系座標(Xs,Ys,Zs)との関係式E2を取得する。そして、この投影系座標(Xn,Yn)と計測系座標(Xs,Ys,Zs)との関係式E2と、位置計測部104で測定して得たスタッフの計測系位置情報が表す計測系の具体的な座標(Xs,Ys,Zs)とを用いて、映像画面上でのスタッフの位置情報を計算する。尚、1点のマーカを測定することにより、2つの式が得られる(Xn=・・・、Yn=・・・)ため、マーカは3点に置かれ、それぞれ測定される。   When the medical site display system 101 is installed, a marker is placed in the medical site, and the position measurement and imaging are performed to acquire the measurement system coordinates and video system coordinates of the marker. From the relationship between the measurement system coordinates of the marker and the image system coordinates, the image system position calculation unit 153 obtains a relational expression E1 in which specific values of the unknowns x0, y0, z0, θx, θy, and θz are stored in advance. To obtain a relational expression E2 between the video system coordinates (Xn, Yn) and the measurement system coordinates (Xs, Ys, Zs). The relational expression E2 between the projection system coordinates (Xn, Yn) and the measurement system coordinates (Xs, Ys, Zs) and the measurement system position information of the staff obtained by the measurement by the position measurement unit 104 represent the measurement system. Using the specific coordinates (Xs, Ys, Zs), the staff position information on the video screen is calculated. In addition, since two expressions are obtained by measuring one marker (Xn =..., Yn =...), The markers are placed at three points and measured.

この医療現場表示システム101で表示される映像を図22に示す。   An image displayed on the medical site display system 101 is shown in FIG.

表示制御部155は、映像記録部151から表示装置106に表示させる映像フレームを読み出したとき、その映像フレームと対になっている時刻情報も読み出す。そして、読み出した時刻情報と同一の時刻情報を映像系位置記憶部154から検索し、該当する時刻情報と関連づけられている映像系位置情報及びスタッフの識別符号を読み出す。映像系位置情報及びスタッフの識別符号を読み出すと、表示制御部155は、読み出した映像系位置情報に該当する映像フレーム上の画素を例えば黒色等の識別色で塗り潰し、読み出したスタッフの識別符号を表す文字列をこの塗り潰した画素を指し示して重畳表示させる。   When the display control unit 155 reads a video frame to be displayed on the display device 106 from the video recording unit 151, the display control unit 155 also reads time information paired with the video frame. Then, the same time information as the read time information is searched from the video system position storage unit 154, and the video system position information and the staff identification code associated with the corresponding time information are read out. When the video system position information and the staff identification code are read, the display control unit 155 fills the pixels on the video frame corresponding to the read video system position information with an identification color such as black, and the read staff identification code. The character string to be represented is superimposed and displayed by pointing to the filled pixels.

表示制御部155は、次の映像フレームを表示装置106に表示させる度に、このスタッフの識別符号の表示処理を行う。このスタッフ識別符号の表示は、新たな映像フレームを表示させる毎に更新していく。ある信号発信体181において、表示させる映像フレームと対になった時刻情報に関連づけられた新たな映像系位置情報がない場合は、塗り潰す画素をそのまま維持しておく。そして、新たな映像系位置情報があれば、新たな映像フレームを表示させるときに、その映像系位置情報に対応する新たな画素を塗り潰してその画素を指し示すスタッフの識別符号を重畳表示し、前の映像フレームまでに塗り潰していた画素の塗りつぶしを解除させる。   The display control unit 155 performs this staff identification code display process each time the next video frame is displayed on the display device 106. The display of the staff identification code is updated each time a new video frame is displayed. When there is no new video system position information associated with the time information paired with the video frame to be displayed in a certain signal transmitter 181, the pixel to be filled is maintained as it is. If there is new video system position information, when a new video frame is displayed, a new pixel corresponding to the video system position information is filled and a staff identification code indicating the pixel is superimposed and displayed. Unpaint the pixels that had been filled up to the video frame.

図23にこの医療現場表示システム101で表示される映像の変形例を示す。また、図24は、スタッフデータベース156のデータ構造を表す図である。   FIG. 23 shows a modified example of the image displayed on the medical site display system 101. FIG. 24 shows the data structure of the staff database 156.

表示制御部155は、図23に示すように、スタッフ識別符号の他、このスタッフ識別符号で表されるスタッフの他の識別情報を表示させるようにしてもよい。   As shown in FIG. 23, the display control unit 155 may display other identification information of the staff represented by the staff identification code in addition to the staff identification code.

図24に示すように、スタッフデータベース56には、スタッフの識別符号に対応付けて、スタッフの氏名、年齢、所属、職務、現職経験年数等のスタッフの他の識別情報が記憶されている。表示制御部155は、映像系位置記憶部154から読み出したスタッフの識別符号でスタッフデータベース156を検索し、読み出したスタッフの識別符号に対応付けられているスタッフの他の識別情報を取得する。そして、表示制御部155は、スタッフの識別符号とともにこの取得したスタッフの他の識別情報を表示装置6に重畳表示させる。   As shown in FIG. 24, the staff database 56 stores other identification information of the staff such as the staff's name, age, affiliation, duties, and years of in-service experience in association with the staff identification codes. The display control unit 155 searches the staff database 156 with the staff identification code read from the video system position storage unit 154, and acquires other identification information of the staff associated with the read staff identification code. The display control unit 155 causes the display device 6 to superimpose and display the acquired other identification information of the staff together with the identification code of the staff.

スタッフデータベース156から取得するスタッフの他の識別情報は、入力装置107から入力された操作信号に依る。入力装置107を用いて映像上に表示させるスタッフ識別情報を選択する操作が行われると、表示制御部155は、選択されたスタッフの他の識別情報をスタッフデータベース156から読み出して重畳表示させる。何れの識別情報も選択されなければ、スタッフの識別符号のみが重畳表示される。また、入力装置107を用いてスタッフの識別符号を表示させない操作が行われると、表示制御部155は、映像フレームを映像記録部151から順次読み出して表示装置106に表示させる処理のみを行う。   Other identification information of the staff acquired from the staff database 156 depends on the operation signal input from the input device 107. When an operation for selecting the staff identification information to be displayed on the video using the input device 107 is performed, the display control unit 155 reads other identification information of the selected staff from the staff database 156 and displays it in a superimposed manner. If no identification information is selected, only the identification code of the staff is superimposed and displayed. When an operation that does not display the staff identification code using the input device 107 is performed, the display control unit 155 performs only the process of sequentially reading the video frames from the video recording unit 151 and displaying them on the display device 106.

このように、この医療現場表示システム101では、医療現場に存在するスタッフを存在位置と共に識別し、その存在位置を医療現場を撮影して得た映像上にプロットし、プロットした画素に対応付けてスタッフを識別するIDや氏名等の識別情報を表示するようにした。これにより、映像上でスタッフを個々に識別することができ、スタッフ毎にそのスタッフが誰でどのような行為をしたのかの映像分析を行い易くなる。   As described above, in the medical site display system 101, the staff present at the medical site is identified together with the existing position, and the existing position is plotted on the image obtained by photographing the medical site, and is associated with the plotted pixel. Identification information such as ID and name for identifying the staff was displayed. Thereby, the staff can be individually identified on the video, and it becomes easy to perform video analysis of who and what the staff performed for each staff.

また、スタッフの識別符号でスタッフを識別してその存在位置を計測するようにしたため、超音波信号を発振させた信号発信体181を誰が装着しているか判断する必要もなく、管理がシンプルになる。   Further, since the staff is identified by the staff identification code and the position of the staff is measured, it is not necessary to determine who is wearing the signal transmitter 181 that oscillates the ultrasonic signal, and management is simplified. .

次に、この医療現場表示システム101で取得したスタッフを識別表示した映像を用いた映像分析を支援する医療現場分析システム109について説明する。図25は、医療現場表示システム101で記録した映像の分析を支援する医療現場分析システム109の構成を示す図である。   Next, a medical site analysis system 109 that supports video analysis using video obtained by identifying and displaying the staff acquired by the medical site display system 101 will be described. FIG. 25 is a diagram illustrating a configuration of a medical site analysis system 109 that supports analysis of video recorded by the medical site display system 101.

医療現場分析システム109は、映像加工装置105から、医療現場を撮影して得た映像と時刻情報の対と、スタッフの識別符号と映像系位置情報と時刻情報との組みとを取得し、スタッフの動き量を算出する。この医療現場分析システム109は、医療現場情報記憶部191、ROI設定部192、動き量計測部193、動き量記憶部194、キュー設定部195、キューインデックス記憶部196、及び頭出し制御部197により構成される。   The medical site analysis system 109 acquires, from the video processing device 105, a pair of video and time information obtained by photographing the medical site, a set of a staff identification code, video system position information, and time information, Is calculated. This medical site analysis system 109 includes a medical site information storage unit 191, an ROI setting unit 192, a motion amount measurement unit 193, a motion amount storage unit 194, a queue setting unit 195, a queue index storage unit 196, and a cue control unit 197. Composed.

医療現場情報記憶部191は、医療現場表示システム101で記録された医療現場を撮影して得た映像と時刻情報の対と、スタッフの識別符号と映像系位置情報と時刻情報との組み合わせとを記憶する。医療現場表示システム101と医療現場分析システム109は、ネットワークで接続された一体のシステムとして構成されていても、それぞれが独立したシステムとして構成されていてもよい。   The medical site information storage unit 191 includes a pair of video and time information obtained by photographing the medical site recorded by the medical site display system 101, a combination of a staff identification code, video system position information, and time information. Remember. The medical site display system 101 and the medical site analysis system 109 may be configured as an integrated system connected by a network, or may be configured as independent systems.

ROI設定部192は、主にCPUを含み構成される。このROI設定部192は、入力装置107を用いて表示装置106に表示されている画面上に関心領域が指定されると、その関心領域を記憶しておく。   The ROI setting unit 192 mainly includes a CPU. The ROI setting unit 192 stores a region of interest when the region of interest is designated on the screen displayed on the display device 106 using the input device 107.

動き量計測部193は、主にCPUを含み構成される。この動き量計測部193は、映像上のスタッフ画像の形状変化から映像に映る各スタッフの動き量を個々に算出する。動き量計測部193は、ROI設定部192で関心領域が設定されているときは、映像上、関心領域内にスタッフが存在するか否かを判断し、関心領域内にスタッフが存在するときに限って動き量を算出する。   The motion amount measurement unit 193 is configured mainly including a CPU. The movement amount measuring unit 193 individually calculates the movement amount of each staff member shown in the video from the shape change of the staff image on the video. When the region of interest is set by the ROI setting unit 192, the motion amount measuring unit 193 determines whether or not the staff exists in the region of interest on the video, and when the staff exists in the region of interest. The amount of motion is calculated only.

動き量記憶部194は、主にRAM等の半導体記憶回路を含み構成される。動き量記憶部194は、動き量計測部193で計測された各スタッフの動き量を時系列で記憶する。   The motion amount storage unit 194 mainly includes a semiconductor storage circuit such as a RAM. The movement amount storage unit 194 stores the movement amount of each staff measured by the movement amount measurement unit 193 in time series.

キュー設定部195は、主にCPUを含み構成される。このキュー設定部195は、スタッフの動き量の時系列のうち、特に動きが激しいことを示す動き量が検出された時刻をキューインデックス記憶部196に記憶させる。   The queue setting unit 195 mainly includes a CPU. The queue setting unit 195 causes the queue index storage unit 196 to store the time at which the amount of movement indicating that the movement is particularly intense among the time series of the amount of movement of the staff is detected.

キューインデックス記憶部196は、キュー設定部95で検出された時刻を表す時刻情報の集合を時系列順にインデックス化してスタッフ毎のキューインデックスとして記憶しておく。また、関心領域が設定されているときには、動き量計測部193の判断結果である関心領域内にスタッフが存在する期間も関心領域内情報としてキューインデックスに含めて記憶しておく。   The queue index storage unit 196 indexes a set of time information representing the time detected by the queue setting unit 95 in order of time series and stores it as a queue index for each staff member. Further, when the region of interest is set, the period in which the staff exists in the region of interest, which is the determination result of the motion amount measuring unit 193, is also included in the queue index and stored as the region-of-interest information.

頭出し制御部197は、キューインデックスをグラフ化して表示装置106に表示させる。そして、入力装置107を用いてキューインデックス中のキューマークが指定されると、指定されたキューマークに対応する時刻情報を表示制御部155に出力し、この時刻情報と対になった映像フレームを医療現場情報記憶部191から検索させ、該当する映像フレームから頭出し再生させる。キューマークは、キュー設定部195で検出された動き量が激しい時刻を示すマークである。   The cueing control unit 197 displays the cue index as a graph on the display device 106. When a cue mark in the cue index is designated using the input device 107, time information corresponding to the designated cue mark is output to the display control unit 155, and a video frame paired with this time information is output. The medical site information storage unit 191 is searched, and the cue is reproduced from the corresponding video frame. The cue mark is a mark indicating a time when the amount of motion detected by the cue setting unit 195 is intense.

図26は、この医療現場分析システム109の動き量計測及びキュー設定の動作を示すフローチャートである。   FIG. 26 is a flowchart showing the movement amount measurement and cue setting operations of the medical site analysis system 109.

まず、ROI設定部192は、入力装置107を用いて映像内に関心領域を指定する操作がなされた場合(S31,Yes)、指定された関心領域を記憶しておく(S32)。   First, the ROI setting unit 192 stores the designated region of interest when an operation for designating the region of interest in the video is performed using the input device 107 (S31, Yes) (S32).

動き量計測部193は、順番に映像フレームを読み出し(S33)、関心領域が記憶されていれば(S34,Yes)、読み出した映像フレームに映るスタッフの画像領域が関心領域内に含まれているか否かを判断する(S35)。   The motion amount measuring unit 193 sequentially reads out the video frames (S33), and if the region of interest is stored (S34, Yes), whether the image region of the staff reflected in the read out video frame is included in the region of interest. It is determined whether or not (S35).

関心領域内にスタッフの画像領域が含まれていない場合は(S35,No)、読み出した映像フレーム及び関心領域に含まれていないスタッフについての動き量計測を終了する(S36)。   If the image area of the staff is not included in the region of interest (S35, No), the movement amount measurement for the read video frame and the staff not included in the region of interest is terminated (S36).

一方、関心領域内にスタッフの画像領域が含まれている場合は(S35,Yes)、読み出した映像フレームとその前又は後の映像フレームとに含まれているスタッフの画像領域のサブストラクションを行う(S37)。そして、動き量として、読み出した映像フレームにおいて前又は後の映像フレームと重ならないスタッフの画像領域の画素数をカウントする(S38)。動き量を計測すると、この動き量をスタッフ毎に時系列で動き量記憶部194に記憶させる(S39)。   On the other hand, if the stuff image area is included in the region of interest (S35, Yes), the stuff image area included in the read video frame and the previous or subsequent video frame is subtracted. (S37). Then, as the amount of motion, the number of pixels in the stuffed image area that does not overlap the previous or subsequent video frame in the read video frame is counted (S38). When the movement amount is measured, the movement amount is stored in the movement amount storage unit 194 in time series for each staff member (S39).

読み出した映像フレームについて映像に映る全てのスタッフの動き量を計測し(S40,Yes)、かつ全映像フレームについて動き量を計測すると(S41,Yes)、動き量計測の処理は終了する(S42)。全てのスタッフの動き量を算出していなければ(S40,No)、S34〜S39を全てのスタッフについて繰り返す。前衛増フレームについて動き量の計測が完了していなければ(S41,No)、次の映像フレームについてS33〜S39を繰り返す。   When the movement amount of all the staff members reflected in the video is measured for the read video frame (S40, Yes) and the movement amount is measured for all the video frames (S41, Yes), the motion amount measurement process is completed (S42). . If the movement amount of all staff is not calculated (S40, No), S34 to S39 are repeated for all staff. If the movement amount measurement has not been completed for the avant-garde frame (No in S41), S33 to S39 are repeated for the next video frame.

スタッフ毎の動き量が時系列的に計測されると、キュー設定部195は、動き量記憶部194に記憶された動き量のうち、所定以上の動きの激しさを表す動き量を検索し(S43)、該当する動き量に対応するスタッフとその動きがあった時刻とを動き量記憶部194から読み出してキューインデックス記憶部196に記憶させる(S44)。   When the movement amount for each staff is measured in time series, the queue setting unit 195 searches the movement amount stored in the movement amount storage unit 194 for a movement amount that represents the intensity of the predetermined or higher movement ( S43), the staff corresponding to the corresponding motion amount and the time when the motion occurred are read from the motion amount storage unit 194 and stored in the queue index storage unit 196 (S44).

図27及び図28は、S31〜32におけるROI設定部92による関心領域の設定を示す模式図である。図27は、関心領域を表示画面上に表示した態様を示す模式図である。図28は、表示された関心領域に対応してこの関心領域の範囲を示す情報を取得する態様を示した模式図である。   27 and 28 are schematic diagrams illustrating setting of a region of interest by the ROI setting unit 92 in S31 to S32. FIG. 27 is a schematic diagram showing a mode in which the region of interest is displayed on the display screen. FIG. 28 is a schematic diagram showing a mode of acquiring information indicating the range of the region of interest corresponding to the displayed region of interest.

図27に示すように、表示装置106の表示画面には、医療現場を撮影して得た映像が表示されている。オペレータが入力装置107を用いて表示画面上に一本の対角線を描くようにカーソルを操作すると、ROI設定部192は、その対角線を有する四角形状の関心領域を表示画面上に表示する。複数箇所に一本の対角線を描くことにより、それぞれの対角線を有する複数の関心領域が表示される。そして、ROI設定部192は、図28に示すように、表示した関心領域内に含まれる各画素に対応する描画メモリ上のアドレスを記憶しておく。この関心領域を構成する各画素に対応する描画メモリ上のアドレスが、映像上における関心領域の範囲を示す。   As shown in FIG. 27, the display screen of the display device 106 displays an image obtained by photographing a medical site. When the operator operates the cursor so as to draw one diagonal line on the display screen using the input device 107, the ROI setting unit 192 displays a rectangular region of interest having the diagonal line on the display screen. By drawing one diagonal line at a plurality of locations, a plurality of regions of interest having respective diagonal lines are displayed. Then, as shown in FIG. 28, the ROI setting unit 192 stores an address on the drawing memory corresponding to each pixel included in the displayed region of interest. The address on the drawing memory corresponding to each pixel constituting the region of interest indicates the range of the region of interest on the video.

図29及び図30は、S33〜S39における動き量計測部193による動き量計測を示す模式図である。図29は、動き量を計測する対象となるスタッフを映像上で抽出する過程を示した模式図である。図30は、抽出した各映像フレームのスタッフの画像領域からスタッフの動き量を計測する過程を示した模式図である。   29 and 30 are schematic diagrams illustrating movement amount measurement by the movement amount measurement unit 193 in S33 to S39. FIG. 29 is a schematic diagram illustrating a process of extracting on the video a staff who is a target for measuring the amount of movement. FIG. 30 is a schematic diagram illustrating a process of measuring the amount of stuff movement from the stuff image area of each extracted video frame.

図29の(a)に示すように、各映像フレームには、動き量を分析する対象となるスタッフの画像領域が含まれており、この画像領域内には、信号発信体181の所在として映像系位置情報で表される画素が含まれている。動き量計測部193は、読み出した映像フレームに付帯する時刻に最も近く、かつこの時刻以前を表す時刻情報と対になった映像系位置情報を医療現場情報記憶部191から読み出す。読み出した映像フレームに付帯する時刻と同一の時刻情報と対になった映像系位置情報が存在すれば、その映像系位置情報を読み出す。この映像系位置情報の読み出しは、医療現場情報記憶部191に記憶されているスタッフの識別符号別に行う。   As shown in FIG. 29 (a), each video frame includes an image area of a staff whose motion amount is to be analyzed. In this image area, a video as the location of the signal transmitter 181 is displayed. A pixel represented by the system position information is included. The motion amount measuring unit 193 reads from the medical site information storage unit 191 video system position information that is closest to the time attached to the read video frame and is paired with time information that represents the time before this time. If there is video system position information paired with the same time information as the time attached to the read video frame, the video system position information is read out. The video system position information is read out for each staff identification code stored in the medical site information storage unit 191.

そして、動き量計測部193は、図29の(b)に示すように、読み出した映像系位置情報が表す画素が含まれる領域の輪郭を抽出する。輪郭抽出は、エッジ抽出法によって抽出したエッジのうち、映像系位置情報で表される画素が含まれているエッジ領域を抽出する。または、映像上位置情報で表される画素から領域拡張法により抽出する。この抽出された領域がスタッフの画像領域に相当する。   Then, as shown in FIG. 29B, the motion amount measuring unit 193 extracts the outline of the region including the pixel represented by the read video system position information. In the contour extraction, an edge region including a pixel represented by the video system position information is extracted from the edges extracted by the edge extraction method. Alternatively, it is extracted from the pixel represented by the position information on the image by the region expansion method. This extracted area corresponds to the staff image area.

スタッフの画像領域の輪郭が抽出されると、動き量計測部193は、ROI設定部192が記憶している関心領域の範囲に、抽出したスタッフの画像領域が含まれるか否かを判断する。関心領域の範囲にスタッフの画像領域の全てが存在することを以て含まれると判断しても良いし、関心領域の範囲にスタッフの画像領域の一部が存在することを以て含まれると判断しても良い。   When the outline of the staff image area is extracted, the motion amount measurement unit 193 determines whether or not the extracted staff image area is included in the region of interest stored in the ROI setting unit 192. It may be determined that all of the staff image area is included in the region of interest, or it may be determined that a part of the staff image region is included in the region of interest good.

ROI設定部192が記憶している関心領域の範囲に、抽出したスタッフの画像領域が含まれている場合は、このスタッフの画像領域を抽出した映像フレームに付帯している時刻情報と、関心領域に含まれているスタッフの画像領域に含まれる映像系位置情報と対になっているスタッフの識別情報とを対応付けて、関心領域内情報として保持しておく。即ち、関心領域内情報は、誰がいつ関心領域内にいたかを示す。   In the case where the extracted staff image area is included in the range of the region of interest stored in the ROI setting unit 192, the time information attached to the extracted video frame and the region of interest The video system position information included in the image area of the staff included in the image and the identification information of the staff in a pair are associated with each other and held as the in-region information of interest. That is, the region-of-interest information indicates who was in the region of interest and when.

ROI設定部192が記憶している関心領域の範囲に、抽出したスタッフの画像領域が含まれている場合は、図29の(c)に示すように、輪郭抽出したスタッフの画像領域を構成する全ての画素に対応する描画メモリ上のアドレスを一時的に記憶しておく。   When the extracted staff image area is included in the range of the region of interest stored in the ROI setting unit 192, the contour extracted staff image area is formed as shown in FIG. Addresses on the drawing memory corresponding to all pixels are temporarily stored.

動き量計測部193は、図30の(a)に示すように、このスタッフの画像領域の抽出を動き量の計測対象となった映像フレームの前又は後の映像フレームについても行い、前又は後の映像フレームについても、スタッフの画像領域を構成する全ての画素に対応する描画メモリ上のアドレスを一時的に記憶しておく。   As shown in FIG. 30A, the motion amount measuring unit 193 also performs the extraction of the staff image area on the video frame before or after the video frame on which the motion amount is measured. Also for the video frames, addresses on the drawing memory corresponding to all the pixels constituting the staff image area are temporarily stored.

動き量の計測対象となった映像フレームとその前又は後の映像フレームについてスタッフの画像領域を特定すると、図30の(b)に示すように、動き量計測部193は、この2枚の映像フレームにおけるスタッフの画像領域のサブストラクションを行う。この2枚の映像フレームを重ね合わせ、動き量の計測対象の映像フレームのスタッフの画像領域のうち、その前又は後の映像フレームで抽出されたスタッフの画像領域と重なっていない領域の画素数をカウントする。即ち、2枚の映像フレームにおいて記憶したスタッフの画像領域を示すアドレスを比較し、前又は後の映像フレームにはないアドレスの数をカウントする。フレームレートの関係上、2枚の映像フレームでスタッフの画像領域が全く重ならない場合は、動きの計測対象となった映像フレームのスタッフの画像領域の全ての画素数をカウントする。このカウントされた画素数が動き量に相当する。   When the staff's image area is specified for the video frame for which the motion amount is to be measured and the previous or subsequent video frame, the motion amount measuring unit 193, as shown in FIG. Subtraction of the stuff image area in the frame. By superimposing these two video frames, the number of pixels in the area of the stuff image area of the video frame whose movement amount is to be measured does not overlap with the stuff image area extracted in the previous or subsequent video frame. Count. That is, the addresses indicating the stuff image areas stored in the two video frames are compared, and the number of addresses that are not in the previous or subsequent video frame is counted. When the stuff image areas do not overlap at all in the two video frames due to the frame rate, the number of all pixels in the stuff image areas of the video frame that is the subject of motion measurement is counted. This counted number of pixels corresponds to the amount of motion.

動き量計測部193は、このカウントされた画素数を動き量として動き量記憶部194に記憶させる。このとき、動き量の計測対象となったスタッフの画像領域に対応するスタッフの識別符号と、動き量の計測対象となった映像フレームに付帯した時刻情報とを、この動き量と対応付けておく。また、動き量計測部193は、関心領域内情報も動き量記憶部194に記憶しておく。   The motion amount measurement unit 193 stores the counted number of pixels in the motion amount storage unit 194 as a motion amount. At this time, the staff identification code corresponding to the image area of the staff whose movement amount is to be measured and the time information attached to the video frame whose movement amount is to be measured are associated with this movement amount. . In addition, the motion amount measuring unit 193 also stores the region-of-interest information in the motion amount storage unit 194.

動き量計測部193は、各映像フレームについて、かつ医療現場に存在すると識別された各スタッフについて、この動き量を算出し、動き量記憶部194に記憶させる。   The motion amount measuring unit 193 calculates the motion amount for each video frame and for each staff identified as existing in the medical field, and stores the motion amount in the motion amount storage unit 194.

図31は、S39において動き量記憶部194に記憶させた動き量を表すデータ構成の模式図である。   FIG. 31 is a schematic diagram of a data configuration representing the amount of movement stored in the movement amount storage unit 194 in S39.

動き量記憶部194には、図31の(a)に示すように、スタッフの識別符号と時刻情報と動き量とが組になって記憶されている。即ち、識別符号で表されるスタッフの各時刻の動き量が記憶されている。尚、医療現場内に複数の撮影装置102が設置されている場合には、映像が複数種類存在することになり、動き量計測部193は、各撮影装置102で撮影されて得られたそれぞれの映像フレームについてスタッフの動き量を計測し、それぞれ動き量記憶部194に記憶させる。   As shown in FIG. 31A, the movement amount storage unit 194 stores a staff identification code, time information, and a movement amount as a set. That is, the movement amount of the staff at each time represented by the identification code is stored. When a plurality of imaging devices 102 are installed in the medical field, there are a plurality of types of images, and the motion amount measurement unit 193 captures each of the imaging devices 102 obtained by imaging. The amount of movement of the staff is measured for the video frame and stored in the movement amount storage unit 194.

また、図31の(b)に示すように、関心領域内情報としてスタッフの識別符号と関心領域内にいた時間帯とが組みになって記憶されている。   Further, as shown in FIG. 31 (b), the staff identification code and the time zone in the region of interest are stored in combination as the region-of-interest information.

図32は、動き量計測部193による動き量計測の変形例を示す模式図である。   FIG. 32 is a schematic diagram illustrating a modified example of the motion amount measurement by the motion amount measurement unit 193.

図32の(a)に示すように、スタッフの画像領域は、領域拡張法やエッジ抽出法等によって厳密に抽出するほか、確実にスタッフが存在するとわかる信号発信体181の存在箇所、即ち計測系位置情報が表す画素から所定範囲の領域をスタッフの画像領域とみなして抽出しても良い。動き量計測部193は、予めこの所定範囲を表す情報を記憶し、計測系位置情報が表す画素を中心にこの所定範囲を表す情報を適用し、スタッフの画像領域とみなして抽出する。   As shown in FIG. 32A, the stuff image area is strictly extracted by an area expansion method, an edge extraction method, or the like, and the location where the signal transmitter 181 is known to be surely present, that is, the measurement system. An area within a predetermined range from the pixel represented by the position information may be extracted as a staff image area. The motion amount measuring unit 193 stores information representing the predetermined range in advance, applies the information representing the predetermined range around the pixel represented by the measurement system position information, and regards it as an image region of the staff and extracts it.

そして、図32の(b)に示すように、動き量の計測対象となっている映像フレームとその前の映像フレームを重ね合わせ、スタッフの画像領域が重複していない部分の画素数をカウントして動き量とする。   Then, as shown in FIG. 32 (b), the video frame that is the subject of measurement of the amount of motion is overlapped with the previous video frame, and the number of pixels in the portion where the staff image areas do not overlap is counted. And the amount of movement.

図33は、S43〜S44においてキュー設定部195が動きの激しい時刻を記憶させる態様を示すグラフである。   FIG. 33 is a graph showing a mode in which the queue setting unit 195 stores the time when the movement is intense in S43 to S44.

図33に示すように、動き量計測部193によって、医療現場に存在する各スタッフの動き量が時系列順に計測される。キュー設定部195は、予め動き量の閾値を記憶しており、この閾値と各時刻の動き量とを比較する。そして、キュー設定部195は、閾値を超えた動き量を検出すると、その動き量に対応する時刻情報とスタッフの識別符号とを動き量記憶部194から読み出し、読み出した時刻情報とスタッフの識別符号との対をキューインデックス記憶部196に記憶させておく。   As shown in FIG. 33, the movement amount measuring unit 193 measures the movement amount of each staff existing in the medical field in time series. The queue setting unit 195 stores a motion amount threshold value in advance, and compares this threshold value with the motion amount at each time. When the queue setting unit 195 detects a motion amount that exceeds the threshold, the queue setting unit 195 reads the time information and the staff identification code corresponding to the motion amount from the motion amount storage unit 194, and reads the time information and the staff identification code. Is stored in the queue index storage unit 196.

図34は、キューインデックス記憶部196に記憶されたキューインデックスを示すデータ構造図である。   FIG. 34 is a data structure diagram showing a queue index stored in the queue index storage unit 196.

図34に示すように、キュー設定部195は、キューインデックス記憶部196として確保された記憶領域内に記憶されているキューインデックスに時刻情報を記憶させる。このとき、キュー設定部195は、動き量記憶部194から時刻情報を読み出すときにこの時刻情報と対になっているスタッフの識別符号も読み出し、対応付けてキューインデックスに記憶させる。   As shown in FIG. 34, the queue setting unit 195 stores time information in a queue index stored in a storage area secured as the queue index storage unit 196. At this time, when the queue setting unit 195 reads the time information from the motion amount storage unit 194, the queue setting unit 195 also reads the identification code of the staff paired with the time information, and stores the identification code in association with the queue index.

尚、キューインデックスには、この時刻情報とスタッフの識別符号の他、動き量、及び算出元となった映像フレームの出所、即ち撮影した撮影装置102の識別情報や閾値の種類等を含むプロパティを一つのフラグに記憶させるようにしてもよい。   In addition to the time information and the staff identification code, the cue index includes properties including the amount of motion and the origin of the video frame that is the source of calculation, that is, the identification information of the photographing device 102 that has been photographed, the type of threshold, and the like. You may make it memorize | store in one flag.

図35は、S43〜S44においてキュー設定部195が動きの激しい時刻を記憶させる態様の変形例を示すグラフである。   FIG. 35 is a graph showing a modification of the aspect in which the cue setting unit 195 stores the time of intense movement in S43 to S44.

図35に示すように、閾値は、入力装置107を用いたオペレータの操作に応じて生成されるようにしてもよい。入力装置107からは、閾値を設定する時間軸上の範囲と倍率を指定する操作信号が入力される。キュー設定部195は、指定された時間軸上の範囲における動き量の平均値を算出し、平均値にこの指定された倍率を掛けて閾値を生成する。キュー設定部195は、指定された時間軸上の範囲においてこの生成した閾値を用いる。時間軸上の範囲が複数指定された場合には、それぞれの範囲について指定された倍率を用いて、それぞれの範囲について閾値を生成する。   As shown in FIG. 35, the threshold value may be generated in accordance with an operation of the operator using the input device 107. From the input device 107, an operation signal for designating a range on the time axis for setting a threshold and a magnification is input. The queue setting unit 195 calculates an average value of the motion amount in the specified range on the time axis, and generates a threshold value by multiplying the average value by the specified magnification. The queue setting unit 195 uses the generated threshold value in a specified range on the time axis. When a plurality of ranges on the time axis are designated, a threshold value is generated for each range using a magnification designated for each range.

この変形例では、キュー設定部195は、動き量を順次読み出す際に時刻情報も読み出し、読み出した時刻情報が含まれる時間軸上の範囲に対応する閾値を用いて、読み出した動き量と閾値とを比較する。   In this modification, the queue setting unit 195 also reads time information when sequentially reading the motion amount, and uses the threshold value corresponding to the range on the time axis including the read time information, Compare

図36は、この医療現場分析システム109で行われた動き量計測及びキュー設定に基づき、映像を再生させる動作を示すフローチャートである。   FIG. 36 is a flowchart showing an operation of reproducing a video based on the movement amount measurement and the cue setting performed in the medical site analysis system 109.

頭出し制御部197は、入力装置107を用いて映像を再生する操作がなされると(S51)、キューインデックス記憶部196からキューインデックスを読み出し(S52)、このキューインデックスに含まれている時刻情報とスタッフの識別情報とに対応する箇所にキューマークを付したグラフを生成し(S53)、このグラフを表示制御部155に表示させる(S54)。   When an operation for reproducing a video is performed using the input device 107 (S51), the cueing control unit 197 reads the queue index from the queue index storage unit 196 (S52), and the time information included in the queue index And a graph corresponding to the identification information of the staff are created (S53), and this graph is displayed on the display control unit 155 (S54).

頭出し制御部197は、グラフ上のキューマークが入力装置107を用いて指定されると(S55)、指定されたキューマークに対応する時刻情報をキューインデックス記憶部196から読み出し(S56)、表示制御部155に出力する。表示制御部155は、入力された時刻情報が対応付けられた映像フレームを読み出し(S57)、その映像フレームからスタッフを識別表示した映像をスタートさせる(S58)。   When the cue mark on the graph is designated using the input device 107 (S55), the cue control unit 197 reads time information corresponding to the designated cue mark from the cue index storage unit 196 (S56), and displays it. The data is output to the control unit 155. The display control unit 155 reads a video frame associated with the input time information (S57), and starts a video that identifies and displays the staff from the video frame (S58).

図37は、頭出し制御部197が表示制御部155に表示させたキューインデックスの表示態様を示す模式図である。   FIG. 37 is a schematic diagram showing a display mode of the cue index displayed on the display control unit 155 by the cueing control unit 197.

図37に示すように、頭出し制御部197は、キューインデックス記憶部196に記憶させたキューインデックスQiから、横軸を時間軸とし縦軸を各スタッフの識別符号としたグラフを生成し、グラフ形式で表示装置106に表示させる。キューインデックスQは、例えば表示されている映像の下側に並べて表示される。   As shown in FIG. 37, the cue control unit 197 generates a graph with the horizontal axis as the time axis and the vertical axis as the identification code of each staff from the queue index Qi stored in the queue index storage unit 196. It is displayed on the display device 106 in the form. The queue index Q is displayed side by side below the displayed video, for example.

頭出し制御部197は、キューインデックス記憶部196に記憶されたスタッフの識別符号と時刻情報との対を読み出し、この読み出したスタッフの識別符号と時刻情報とに対応する箇所にキューマークQmを表示させる。また、頭出し制御部197は、関心領域内情報を読み出し、関心領域内情報に含まれるスタッフの識別符号と時刻情報の分布範囲とに対応する箇所に太線矢印Arを引き、関心領域内に存在したことを識別表示させる。   The cue control unit 197 reads the pair of the staff identification code and the time information stored in the queue index storage unit 196, and displays the cue mark Qm at a location corresponding to the read staff identification code and the time information. Let Also, the cue control unit 197 reads out the information in the region of interest, draws a thick arrow Ar at the location corresponding to the staff identification code and the distribution range of the time information included in the information in the region of interest, and exists in the region of interest The fact that it was done is displayed.

また、頭出し制御部197は、キューインデックスQiに動き量も記憶されている場合には、所定時間間隔毎に全てのスタッフの動き量や関心領域内にいるスタッフの動き量を合算し、合算した動き量を時間軸にプロットした全体量グラフGも表示させる。   In addition, when the movement amount is also stored in the queue index Qi, the cue control unit 197 adds up the movement amounts of all the staff members and the movement amounts of the staff members in the region of interest at every predetermined time interval. The total amount graph G in which the amount of movement is plotted on the time axis is also displayed.

この表示装置106に表示された表示画面によって、例えば、時刻Aでカメラ助手の太線矢印Arが途切れていることから、カメラ助手がこの時刻Aで関心領域から外れた、すなわち持ち場を離れたことがわかる。また、時刻Bで全体量グラフGが激しい波形を描き、各スタッフにキューマークQmが表示され、かつ外科医が新たに加わっていることから、この時刻Bで医療事故につながりうる何らかの事象が起き、外科医が応援に駆け付けたことが推定できる。また、時刻Cで執刀医の太線矢印Arが途切れて、そのごの太線矢印Arが存在しないことから、執刀医が時刻Cで医療現場を離れたことがわかり、手術がおおかた完了したことが推測される。   On the display screen displayed on the display device 106, for example, the thick arrow Ar of the camera assistant is interrupted at the time A, so that the camera assistant is out of the region of interest at the time A, that is, has left the position. Recognize. In addition, since the entire quantity graph G draws a severe waveform at time B, a cue mark Qm is displayed for each staff member, and a surgeon is newly added, some event that may lead to a medical accident occurs at this time B, It can be estimated that the surgeon rushed to support. In addition, the surgeon's thick arrow Ar is interrupted at time C, and the thick arrow Ar does not exist. Therefore, it is understood that the surgeon has left the medical field at time C, and the operation is largely completed. Is done.

従って、この時刻B上のキューマークQmを指定し、この時刻Bから映像を頭出し再生することにより、何らかの事象について検証することが可能となる。また、このとき、映像上で執刀医や外科医の動きを観察する場合、執刀医や外科医を表す識別情報が指し示している画素を含むスタッフが執刀医や外科医であることを映像上で即座に認識することができる。   Therefore, by specifying the cue mark Qm on this time B and starting and reproducing the video from this time B, it is possible to verify some event. At this time, when observing the movement of the surgeon or surgeon on the video, it immediately recognizes on the video that the staff including the pixel pointed to by the identification information representing the surgeon or surgeon is the surgeon or surgeon. can do.

このように、医療現場で事故に繋がりうる何らかの事象が発生した場合、緊急の対処を行うためにスタッフの動きは激しくなる。例えば手術中に大きな出血が起きた場合、外科医は急いで吸引(場合によっては洗浄)し、出血箇所を特定し止血を行う。その際、必要となる余分なガーゼなどは器械台看護師から手渡しで受け取る。また、麻酔医は血圧低下が起きているかどうかを確認し、また、直接患者に触れて診断の上、薬剤カートから昇圧剤を取り出し、必要に応じて調剤の上、チューブ操作を行って投与する。こうした作業は、緊急を要することが多いために通常作業時に比べてスタッフの動きが多くなる。よって、この実施形態に係る医療現場分析システム109によると、映像記録の中からスタッフの動きの量を計測するため、その動きに量から映像上のどの時間帯を重点的に検証すればよいか把握しやすくなり、効率的に映像分析を行うことができる。   As described above, when an event that may lead to an accident occurs in the medical field, the movement of the staff becomes intense in order to take an urgent action. For example, if a large bleeding occurs during surgery, the surgeon quickly sucks (in some cases, cleans), identifies the bleeding site, and stops bleeding. At that time, the necessary extra gauze is received by hand from the instrument table nurse. In addition, the anesthesiologist confirms whether blood pressure is decreasing, touches the patient directly, makes a diagnosis, removes the vasopressor from the drug cart, dispenses it as needed, and administers the tube. . Since these operations are often urgent, the staff moves more than during normal operations. Therefore, according to the medical field analysis system 109 according to this embodiment, in order to measure the amount of movement of the staff from the video recording, which time zone on the video should be verified based on the amount of movement This makes it easier to grasp and enables efficient video analysis.

以上説明した医療現場分析システムに対して、前記第1実施形態に係るイベント識別システムを、例えば次のように適用することができる。   For example, the event identification system according to the first embodiment can be applied to the medical site analysis system described above as follows.

すなわち、分析対象の作業に係るスタッフの各々に、前記接触型マイクロフォン3A及び前記送信機3Bを装着させる。そして、各々のスタッフ毎に収集した音響データについて、第1実施形態において説明したイベント識別の推定処理を行う。   That is, each of the staff involved in the work to be analyzed is attached with the contact microphone 3A and the transmitter 3B. And the estimation process of the event identification demonstrated in 1st Embodiment is performed about the acoustic data collected for every staff.

ここで、前記キュー設定部195は、上述したようにスタッフの動き量の時系列のうち、特に動きが激しいことを示す動き量が検出された時刻をキューインデックス記憶部196に記憶させると共に、前記接触型マイクロフォン3Aによって収集した音響データを分析処理した結果に基づいて所定のイベントが発生したと推定した時刻をキューインデックス記憶部196に記憶させる。   Here, the queue setting unit 195 stores, in the queue index storage unit 196, the time when the movement amount indicating that the movement is particularly intense in the time series of the movement amount of the staff, as described above, The cue index storage unit 196 stores the time at which it is estimated that a predetermined event has occurred based on the result of analyzing the acoustic data collected by the contact microphone 3A.

このようなシステム構成を採ることで、本第2実施形態によれば、第1実施形態と同様の効果を奏する上に、時刻を正確に合わせて収集した多様なセンサの情報に基づいて作業状態を示す情報を抽出し、該抽出した情報に基づいて、映像等の記録のうち重要な部分を推定してマーク(いわゆるキュー)を付することができるイベント識別システムを提供することができる。また、医療現場を撮影して得た映像に映るスタッフを誰であるか識別でき、以て誰がどのような行為をしていたのか視覚的に把握することのできるイベント識別システムを提供することができる。   By adopting such a system configuration, according to the second embodiment, the same effect as that of the first embodiment can be obtained, and the working state can be based on information of various sensors collected by matching the time accurately. It is possible to provide an event identification system capable of extracting information indicating the above and estimating a significant part of a recording such as a video and adding a mark (so-called cue) based on the extracted information. In addition, it is possible to provide an event identification system that can identify who is the staff reflected in the image obtained by photographing the medical site and visually understand who is doing what. it can.

(変形例)
さらには、会話が行われた時間帯のみを抽出することで、一連の作業行為中において会話が行われた時間のみを記録したテープ等を作成することができる。複数人が各々前記接触型マイクロフォン300Aを装着している場合、それら前記接触型マイクロフォン300Aの全てが人間の声を検出している時間帯のみを抽出することで、当該複数人による会話が行われた時間のみを記録したテープ等を作成することができる。さらに、各々の発話における発話者を、前記接触型マイクロフォン300Aの装置番号等により特定することも可能である。従って、記録された映像/音声のうち、特定の発話者が発話をした時間帯のみを即座に検索して参照することが可能となる。
(Modification)
Furthermore, by extracting only the time zone in which the conversation was performed, a tape or the like in which only the time in which the conversation was performed during a series of work actions can be created. When a plurality of persons are wearing the contact type microphone 300A, the conversation by the plurality of persons is performed by extracting only the time zone in which all the contact type microphones 300A detect human voices. It is possible to create a tape or the like on which only the time is recorded. Further, the speaker in each utterance can be specified by the device number of the contact microphone 300A. Therefore, it is possible to immediately search and refer to only the time zone in which a specific speaker speaks among recorded video / audio.

ところで、作業中の会話では、第一の発話者の発話完了から、第二の発話者の発話が開始されるまでの時間が0.3秒乃至0.8秒程度であることが多い。その後、第二の発話者の発話に対して第一の話者がさらに応答する頻度が高い。   By the way, in a working conversation, the time from the completion of the first speaker's utterance to the start of the second speaker's utterance is often about 0.3 to 0.8 seconds. Thereafter, the first speaker responds more frequently to the utterance of the second speaker.

従って、発話相互のタイミングから、それが会話(受け答え)であるか否かを推定することが可能である。ここで、一連の(複数の発話者による)発話を“会話”としてグループ化して認識し、当該会話にマーク(いわゆるキュー)を付しても勿論よい。   Therefore, it is possible to estimate whether or not it is a conversation (acceptance answer) from the timing of utterances. Here, as a matter of course, a series of utterances (by a plurality of speakers) may be grouped and recognized as “conversations”, and marks (so-called queues) may be attached to the conversations.

このような処理によって会話に付したマークを利用することで、記録された映像/音声の中から会話の部分をすばやく検索することができる。そして、当該検索に係る会話のみを再生することで、一連の作業行為中に生じた問題等を素早く且つ容易に知ることができる。   By using the mark attached to the conversation by such processing, it is possible to quickly search the conversation part from the recorded video / audio. Then, by reproducing only the conversation related to the search, it is possible to quickly and easily know problems that occurred during a series of work actions.

なお、本第2実施形態に係るイベント識別システムを実際に運用する際には、各々の接触型マイクロフォン300Aにおける時刻を正確に合わせることが必要となる。   When the event identification system according to the second embodiment is actually operated, it is necessary to accurately set the time in each contact microphone 300A.

[第3実施形態]
以下、本発明の第3実施形態に係るイベント識別システムについて説明する。詳細は後述するが、本第3実施形態においては、後述する個体情報識別システムに前記第1実施形態に係るイベント識別システムを適用する。これにより、本第3実施形態によれば、スタッフの位置、映像、発話、及び心拍音データを時系列に沿って容易に一覧で把握することができ、例えば手術等の一連の作業行為において、いつ誰が何を行ったかを、映像等に記録された各人を同定して精密に且つ時系列に沿って容易に一覧で把握することを簡易な装置構成で実現するイベント識別システムを提供することができる。以下、詳細に説明する。
[Third Embodiment]
The event identification system according to the third embodiment of the present invention will be described below. Although details will be described later, in the third embodiment, the event identification system according to the first embodiment is applied to an individual information identification system described later. Thereby, according to the third embodiment, staff positions, images, utterances, and heartbeat data can be easily grasped in a list along time series. For example, in a series of work activities such as surgery, To provide an event identification system that realizes when and who did what by identifying each person recorded in a video etc. and accurately and easily grasping the list in time series with a simple device configuration Can do. Details will be described below.

図38は、個体情報識別システムの一構成例を示す図である。図38に示すように、個体情報識別システムは、ID識別カメラ1と、図38に示す統括装置6とを具備する。   FIG. 38 is a diagram illustrating a configuration example of the individual information identification system. As shown in FIG. 38, the individual information identification system includes an ID identification camera 1 and an overall device 6 shown in FIG.

なお、図38に示す光学系は、前記ID識別カメラ1の原理を説明する為に便宜的に簡略化して示す光学系である。つまり、現実の実施においては、当然ながら種々の収差を補正する光学系や絞り等を適宜付加することが好ましい。   Note that the optical system shown in FIG. 38 is a simplified optical system for convenience in order to explain the principle of the ID identification camera 1. That is, in actual implementation, it is naturally preferable to add an optical system, a diaphragm, and the like that correct various aberrations as appropriate.

同図に示すように、前記ID識別カメラ1は、所定の領域を撮影して映像情報を取得する為の撮影手段2と、ID信号(詳細は後述)の発信場所を特定する為の空間分解能を有しており、該ID信号を受信する受信装置4と、を有する。   As shown in the figure, the ID identification camera 1 includes a photographing means 2 for photographing a predetermined area and acquiring video information, and a spatial resolution for specifying a transmission place of an ID signal (details will be described later). And a receiving device 4 that receives the ID signal.

また、前記撮影手段2及び前記受信装置4は、前記撮影手段2によって取得した映像情報と、前記受信装置4によって受信された前記ID信号の発信場所とを対応付ける前記統括装置6に接続されている。   The photographing unit 2 and the receiving device 4 are connected to the central device 6 that associates the video information acquired by the photographing unit 2 with the transmission location of the ID signal received by the receiving device 4. .

そして、前記撮影手段2及び前記受信装置4に、撮影対象からの光束を導く為の光学系として、撮影レンズ11とビームスプリッタ13とを備える光学系8が設けられている。   An optical system 8 including a photographing lens 11 and a beam splitter 13 is provided in the photographing unit 2 and the receiving device 4 as an optical system for guiding a light beam from a subject to be photographed.

前記撮影手段2は、例えばCCD(Charge Coupled Device )等の撮像素子であるカメラ受光面2Aと、前記カメラ受光面2Aから出力される電気信号を映像信号に変換して出力するカメラ制御装置(Camera Control Unit ;以降、CCUと称する)2Bと、を備える。この撮影手段2によって取得されるデジタル動画映像(以降、単に映像情報と称する)は、例えば図39に示すような映像である。   The photographing means 2 includes, for example, a camera light receiving surface 2A that is an image sensor such as a CCD (Charge Coupled Device), and a camera control device (Camera) that converts an electric signal output from the camera light receiving surface 2A into a video signal and outputs the video signal. Control Unit; hereinafter referred to as CCU) 2B. The digital moving image (hereinafter simply referred to as video information) acquired by the photographing means 2 is a video as shown in FIG. 39, for example.

前記受信装置4は、複数のID信号受信装置4A(図41を参照して詳細に説明する)を備える。そして、ID信号受光面4A11は、図40に示すようにID信号を受信する為の光検出デバイスの集合体であり、各々のID信号受信装置4Aの受光面であるID信号検出面4A1を複数配列して構成される。   The receiving device 4 includes a plurality of ID signal receiving devices 4A (described in detail with reference to FIG. 41). The ID signal light receiving surface 4A11 is an assembly of photodetecting devices for receiving ID signals as shown in FIG. 40, and a plurality of ID signal detecting surfaces 4A1 that are light receiving surfaces of each ID signal receiving device 4A are provided. It is configured by arranging.

なお、図40(a)は、受信装置4が9チャネルのID信号受信装置4Aによって構成されている場合の構成を示しており、このようにID信号検出面4A1を並べてID信号受光面4A11を構成する。ここでは9チャネル分のID信号検出面4A1を格子状に並べ、且つそれらID信号検出面4A1に対応する各々のID信号受信装置4Aに対して図40(b)に示すようにチャネル番号を割り当てている例を示している。   FIG. 40A shows a configuration in which the receiving device 4 is configured by a 9-channel ID signal receiving device 4A. In this way, the ID signal detecting surface 4A1 is arranged and the ID signal receiving surface 4A11 is arranged. Constitute. Here, the ID signal detection surfaces 4A1 for nine channels are arranged in a grid pattern, and channel numbers are assigned to the respective ID signal receiving devices 4A corresponding to the ID signal detection surfaces 4A1 as shown in FIG. 40 (b). An example is shown.

前記ビームスプリッタ13は、前記撮影レンズ11を介して当該ID識別カメラ1に入射した光を、前記カメラ受光面2Aと前記ID信号受光面4A11とに同一の光軸を有するように入射させる為の部材である。   The beam splitter 13 is for causing the light incident on the ID identification camera 1 through the photographing lens 11 to enter the camera light receiving surface 2A and the ID signal light receiving surface 4A11 so as to have the same optical axis. It is a member.

なお、前記撮影レンズ11を介して当該ID識別カメラ1に入射した光を、前記カメラ受光面2Aと前記ID信号受光面4A11とに同一の光軸を有するように入射させる為に、ハーフミラー等を用いても勿論よい。また、現実の実施においては、前記撮影レンズ11を介して当該ID識別カメラ1に入射した光を、前記カメラ受光面2Aと前記ID信号受光面4A11とに全く同一の光軸を有するように入射させる必要性は無く、略同一の光軸を有するように入射させればよい。   In order to make the light incident on the ID identification camera 1 through the photographing lens 11 incident on the camera light receiving surface 2A and the ID signal light receiving surface 4A11 so as to have the same optical axis, a half mirror or the like is used. Of course, it may be used. In actual implementation, the light incident on the ID identification camera 1 through the photographing lens 11 is incident on the camera light receiving surface 2A and the ID signal light receiving surface 4A11 so that they have exactly the same optical axis. There is no need to make it incident, and it is sufficient to make it incident so as to have substantially the same optical axis.

このように、前記撮影レンズ11を介して入射した光を、前記カメラ受光面2Aと前記ID信号受光面4A11とに同一又は略同一の光軸を有するように入射させることで、前記統括装置6は、前記撮影手段2によって取得した映像上における各々の像の位置と、前記受信装置4で受信したID信号の発信元の位置とを正確に対応づけることができる。   In this way, by making the light incident through the photographing lens 11 enter the camera light receiving surface 2A and the ID signal light receiving surface 4A11 so as to have the same or substantially the same optical axis, the overall device 6 Can accurately associate the position of each image on the video acquired by the photographing means 2 with the position of the transmission source of the ID signal received by the receiving device 4.

以下、前記ID信号受信装置4Aの一構成例を説明する。図41は、前記ID信号受信装置4Aの一構成例を示す図である。   Hereinafter, a configuration example of the ID signal receiving device 4A will be described. FIG. 41 is a diagram illustrating a configuration example of the ID signal receiving device 4A.

同図に示すように、前記ID信号受信装置4Aは、ID信号検出面4A1と、感光素子4A2と、ハイパスフィルタ4A3と、デモジュレータ4A4と、バッファメモリ4A5と、MPU4A6と、を備える。   As shown in the figure, the ID signal receiving device 4A includes an ID signal detection surface 4A1, a photosensitive element 4A2, a high-pass filter 4A3, a demodulator 4A4, a buffer memory 4A5, and an MPU 4A6.

前記ID信号検出面4A1としては、例えば図42を参照して後述するID信号送信装置21における発光素子21Dとして赤外線発光ダイオードを用いる場合には、可視光を遮断する光学フィルタを用いる。これにより、ID信号光と当該環境における可視光とが分離される。つまり、前記ID信号検出面4A1は、ID信号光とその他の光とを分離して、ID信号光のみを抽出する為の部材である。   As the ID signal detection surface 4A1, for example, when an infrared light emitting diode is used as the light emitting element 21D in the ID signal transmission device 21 described later with reference to FIG. 42, an optical filter that blocks visible light is used. Thereby, the ID signal light and the visible light in the environment are separated. That is, the ID signal detection surface 4A1 is a member for separating the ID signal light and other light and extracting only the ID signal light.

前記感光素子4A2は、前記ID信号検出面4A1を通過した光信号を電圧信号に変換する。   The photosensitive element 4A2 converts the optical signal that has passed through the ID signal detection surface 4A1 into a voltage signal.

前記ハイパスフィルタ4A3は、前記感光素子4A2から出力された電圧信号について、低周波の成分を遮断する処理を行い、高周波成分のみを残す。この処理によって、バックグラウンドやそのゆっくりとした変動等の影響を除去する。   The high-pass filter 4A3 performs a process of blocking low-frequency components on the voltage signal output from the photosensitive element 4A2, and leaves only high-frequency components. This process eliminates the influence of the background and its slow fluctuation.

前記デモジュレータ4A4は、前記ハイパスフィルタ4A3から送信された信号の波形を再現してデジタル化する。   The demodulator 4A4 reproduces and digitizes the waveform of the signal transmitted from the high-pass filter 4A3.

前記バッファメモリ4A5は、前記デモジュレータ4A4によってデジタル化された信号を一時格納する。   The buffer memory 4A5 temporarily stores the signal digitized by the demodulator 4A4.

前記MPU4A6は、前記バッファメモリ4A5から信号を読み出して、デコード処理によって誤り検出をおこなう。ここで、もし誤りが検出されない場合には、ID情報を抽出して、該ID情報を前記統括装置6に送信する。   The MPU 4A6 reads a signal from the buffer memory 4A5 and performs error detection by decoding processing. Here, if no error is detected, the ID information is extracted and the ID information is transmitted to the overall device 6.

以下、図42を参照して、前記受信装置4によって受信されるID信号を送信するID信号送信装置の一構成例を説明する。   Hereinafter, with reference to FIG. 42, a configuration example of an ID signal transmission device that transmits an ID signal received by the reception device 4 will be described.

同図に示すように、ID信号送信装置21は、電源21Aと、ROM21Bと、ドライバ回路21Cと、発光素子2IDと、散乱板21Eと、を有する。   As shown in the figure, the ID signal transmission device 21 includes a power source 21A, a ROM 21B, a driver circuit 21C, a light emitting element 2ID, and a scattering plate 21E.

前記電源21Aは、当該ID信号送信装置21の動作に要する電力を供給する。   The power source 21 </ b> A supplies power necessary for the operation of the ID signal transmission device 21.

前記ROM21Bは、後述するドライバ回路21Cによって所定の発光パターンに変換されるID情報を保持している。なお、このROM21Bが保持しているID情報は、各々のID信号送信装置21ごとに互いに異なるID情報である。   The ROM 21B holds ID information converted into a predetermined light emission pattern by a driver circuit 21C described later. The ID information held by the ROM 21B is different from each other for each ID signal transmission device 21.

前記ドライバ回路21Cは、前記ROM21Bが保持しているID情報を読み取り、発光素子2IDの発光パターンに変換して、前記発光素子2IDを点滅させる。従って、各々のID信号送信装置21における発光素子2IDは、互いに異なる経時的パターンで発光する。そして、各々のID信号送信装置21は、この発光パターンによって、ID情報をID信号光として送信する。   The driver circuit 21C reads the ID information held in the ROM 21B, converts it into a light emission pattern of the light emitting element 2ID, and blinks the light emitting element 2ID. Therefore, the light emitting elements 2ID in the respective ID signal transmission devices 21 emit light with different temporal patterns. And each ID signal transmitter 21 transmits ID information as ID signal light by this light emission pattern.

前記散乱板21Eは、このID信号光をより広範囲の空間に発信する為の部材である。つまり、この散乱板21Eによって、当該発光素子2IDにおける発光面積を実質的に拡大し、より広範囲の空間にID信号光を飛ばすことが可能となる。換言すれば、この散乱板21Eにより、発光素子2IDからのID信号光が何らかの障害物によって遮られる確率が低くなる。従って、例えば当該ID信号送信装置21における発光素子2IDを監視対象者の肩部に取り付ける場合であっても、ID信号光が当該監視対象者の頭部等によって遮られることで通信不能となってしまうことを防ぐことができる。   The scattering plate 21E is a member for transmitting the ID signal light to a wider space. That is, the scattering plate 21E substantially enlarges the light emitting area of the light emitting element 2ID, and allows the ID signal light to fly over a wider range of space. In other words, this scattering plate 21E reduces the probability that the ID signal light from the light emitting element 2ID is blocked by some obstacle. Therefore, for example, even when the light emitting element 2ID in the ID signal transmission device 21 is attached to the shoulder of the monitoring subject, communication is disabled due to the ID signal light being blocked by the monitoring subject's head or the like. Can be prevented.

なお、上述したように、発光素子2IDとして例えば赤外線発光ダイオードを用いた場合、前記ID信号受光面4A11に可視光を遮断するフィルタを用いることで、ID信号光と当該環境から来る可視光とを容易に分離することができる。   As described above, when an infrared light emitting diode is used as the light emitting element 2ID, for example, a filter that blocks visible light is used for the ID signal light receiving surface 4A11, so that the ID signal light and the visible light coming from the environment can be obtained. It can be easily separated.

このような構成とした場合、小出力でもID信号光を送信することが可能であり、送信の為の電力が少なくてすむ。従って、前記電源21Aとして、例えばソーラーセルを用いることも可能となり、この場合には電池交換が不要となる。   In such a configuration, the ID signal light can be transmitted even with a small output, and power for transmission can be reduced. Therefore, for example, a solar cell can be used as the power source 21A. In this case, battery replacement is not necessary.

さらに、赤外線は、生地が薄手且つ薄い色の衣服であれば透過できる為、当該ID信号送信装置21を、監視対象者の衣服の下に装着させることも可能である。従って、例えば清潔な衣服を着用しなければならない場合(例えば手術室やクリーンルーム等)に、当該ID信号送信装置21を特に滅菌処理や清浄化処理せずに衣服の下に取り付けることが可能となる。   Furthermore, since the infrared rays can be transmitted if the cloth is thin and light in color, the ID signal transmission device 21 can be attached under the clothes of the person to be monitored. Therefore, for example, when it is necessary to wear clean clothes (for example, an operating room or a clean room), the ID signal transmission device 21 can be attached under the clothes without performing sterilization or cleaning. .

以下、前記ID信号送信装置21によるID信号光の送信タイミングの一例を、図43に示すタイミングを参照して説明する。   Hereinafter, an example of the transmission timing of the ID signal light by the ID signal transmission device 21 will be described with reference to the timing shown in FIG.

図43に示すように、ID信号送信装置21がID信号光を送信する際には、送信休止時間をランダムに設ける。具体的には、図43に示す送信タイミングのように、常時送信を続けずに、例えば数十ミリ秒乃至百数十ミリ秒程度の休止期間を挿入して、送信を行なう。   As shown in FIG. 43, when the ID signal transmission device 21 transmits the ID signal light, a transmission pause time is randomly provided. Specifically, as in the transmission timing shown in FIG. 43, transmission is performed by inserting a pause period of, for example, several tens of milliseconds to hundreds of tens of milliseconds without continuously transmitting.

これにより、複数のID信号送信装置21が常に同時に送信を行ってしまうことに起因して、それらID信号送信装置21が送信するID情報を、前記受信装置4が受信できないという事態が生じないようにする。   This prevents a situation in which the receiving device 4 cannot receive the ID information transmitted by the ID signal transmitting devices 21 due to the fact that the plurality of ID signal transmitting devices 21 always transmit simultaneously. To.

換言すれば、図43に示すようなID信号光の送信タイミング制御を行うことで、或るID信号送信装置21がID信号光の送信を繰り返し実行している間に、他のID信号送信装置21が休止中となり、前記或るID信号送信装置21が単独でID信号光の送信を行うという事象が生じる。このとき、ID信号が正しく前記受信装置4によって受信される。   In other words, by performing the ID signal light transmission timing control as shown in FIG. 43, while another ID signal transmission device 21 repeatedly executes the transmission of the ID signal light, another ID signal transmission device. 21 is suspended, and an event occurs in which the certain ID signal transmission device 21 transmits the ID signal light alone. At this time, the ID signal is correctly received by the receiving device 4.

なお、ID信号送信装置21が送信するID信号光は、個々のID信号送信装置21ごとに付与されたID情報を、誤り検出符号でコード化(エンコード処理)した信号光である。このID信号光は僅かな情報量であるため、送信には例えば数ミリ秒あれば十分である。従って、図43に示すような送信タイミングが可能となる。   The ID signal light transmitted by the ID signal transmission device 21 is signal light obtained by encoding (encoding processing) ID information provided for each ID signal transmission device 21 with an error detection code. Since this ID signal light has a small amount of information, for example, several milliseconds are sufficient for transmission. Therefore, the transmission timing as shown in FIG. 43 is possible.

また、図43に示す送信タイミングのように常時送信を続けないで、例えば数十ミリ秒乃至百数十ミリ秒程度の休止期間を挿入することによって、当該ID信号送信装置21の消費電力を大幅に低減するという効果も生じる。   Further, the power consumption of the ID signal transmission device 21 is greatly reduced by inserting a pause period of, for example, several tens of milliseconds to hundreds of tens of milliseconds without continuously transmitting like the transmission timing shown in FIG. This also has the effect of reducing it.

その結果、前記電源21Aとして例えば電池を用いる場合には、電池交換無しに連続使用できる時間を伸ばすことができる。他方、前記電源21Aとして例えばソーラーセルを用いる場合には、ソーラーセルの面積を小さくして当該ID信号送信装置21を小型化し、監視対象者に装着しやすく構成することが可能となる。   As a result, when, for example, a battery is used as the power source 21A, it is possible to extend the time that can be continuously used without battery replacement. On the other hand, when, for example, a solar cell is used as the power source 21A, the area of the solar cell can be reduced to downsize the ID signal transmission device 21 and can be configured to be easily worn by the monitoring subject.

なお、図44は、前記撮影手段2によって取得した映像と、前記ID信号光の発光位置とを重ねて示した図である。換言すれば、図44は、前記撮影手段2によって取得した映像と、ID信号光との対応を示す図である。ここで、例えばID信号光が赤外線である場合、当然ながら前記撮影手段2によって取得した映像上ではID信号光を認識することは出来ない。   44 is a diagram in which the video acquired by the photographing unit 2 and the emission position of the ID signal light are overlapped. In other words, FIG. 44 is a diagram showing the correspondence between the video acquired by the photographing means 2 and the ID signal light. Here, for example, when the ID signal light is an infrared ray, the ID signal light cannot be recognized on the video obtained by the photographing unit 2 as a matter of course.

また、図45は、図44に示す例においてID信号受光面4A11に投影されるID信号光を模式的に示す図である。この図45においては、ID信号受光面4A11は、3×3=9チャネルのID信号受信装置4Aに対応している。   FIG. 45 is a diagram schematically showing ID signal light projected on the ID signal light receiving surface 4A11 in the example shown in FIG. In FIG. 45, the ID signal light receiving surface 4A11 corresponds to an ID signal receiving device 4A of 3 × 3 = 9 channels.

具体的には、図45は全部で4個のID信号送信装置21からのID信号光が投影される位置を示しており、同図における左上のチャネルでは2つのID信号光を受光している。そして、そのうちの一方は、当該ID信号送信装置21を装着している人間の頭部によって部分的に隠されている為に一部欠けており且つ少し暗くなっている。   Specifically, FIG. 45 shows positions where the ID signal light from the four ID signal transmission devices 21 is projected in total, and two ID signal lights are received in the upper left channel in FIG. . One of them is partially hidden by the head of the person wearing the ID signal transmission device 21 and is partially darkened.

それぞれのチャネルのID信号検出面4A1に投影されたID信号光は、そのチャネルによって検出される。ただし、一つのチャネルにおいて、当該チャネル内における何れの位置にID信号光が投影されているかを検知することまではできない。しかしながら、チャネル数を増加させる(ID信号受信装置4Aの数を増加させる)ことで、当該受信装置の空間分解能を向上させることは勿論可能である。   The ID signal light projected on the ID signal detection surface 4A1 of each channel is detected by the channel. However, in one channel, it is impossible to detect at which position in the channel the ID signal light is projected. However, it is of course possible to improve the spatial resolution of the receiving device by increasing the number of channels (increasing the number of ID signal receiving devices 4A).

なお、詳細は後述するが、図45に示す図は説明の為に便宜的に示した図であって、実際には複数のID信号光を同時に受信することは無い。   Although the details will be described later, the diagram shown in FIG. 45 is shown for convenience of explanation, and actually, a plurality of ID signal lights are not simultaneously received.

以下、前記ID信号受信装置4Aにおける前記MPU4A6による処理を、図46に示すフローチャートを参照して説明する。   Hereinafter, processing by the MPU 4A6 in the ID signal receiving apparatus 4A will be described with reference to a flowchart shown in FIG.

まず、特定の周波数の変動成分が入力されるまで待つ(ステップS1)。続いて、入力された信号をID信号であると仮定して誤り検出を行う(ステップS2)。そして、このステップS2において実行した誤り検出の結果に基づいて、誤りがあるか否かを判断する(ステップS3)。このステップS3をYESに分岐する場合は、当該信号を受信しなかったものとみなし(ステップS5)、前記ステップS1へ戻る。一方、前記ステップS3をNOに分岐する場合は、当該信号からID識別情報を取り出して前記統括装置6に送信し(ステップS4)、前記ステップS1へ戻る。   First, it waits until a fluctuation component having a specific frequency is input (step S1). Subsequently, error detection is performed assuming that the input signal is an ID signal (step S2). Then, based on the result of error detection executed in step S2, it is determined whether or not there is an error (step S3). When step S3 is branched to YES, it is considered that the signal has not been received (step S5) and the process returns to step S1. On the other hand, when step S3 is branched to NO, ID identification information is extracted from the signal and transmitted to the overall device 6 (step S4), and the process returns to step S1.

このように、前記ID信号受信装置4Aは、ID信号光を正しく受信できなかった場合や、複数のID信号送信装置21からのID信号光を同時に受けてしまった場合には、当該ID信号光を誤りとして検出し、当該ID信号光を受信しなかったものとみなす。これにより、誤りやコリジョン(複数のID信号光が同時に発信されてしまって混乱すること)が生じる可能性を排除する。   As described above, when the ID signal receiving device 4A fails to correctly receive the ID signal light or receives the ID signal light from the plurality of ID signal transmitting devices 21 at the same time, the ID signal light is transmitted. Is detected as an error and the ID signal light is not received. This eliminates the possibility of errors and collisions (confusion caused by simultaneous transmission of a plurality of ID signal lights).

以下、前記統括装置6による処理について説明する。   Hereinafter, processing by the overall device 6 will be described.

前記統括装置6はコンピュータにより構成されており、前記撮影手段2から送信される映像情報をリアルタイムで受信する。さらに、統括装置6は、全てのID信号受信装置4Aから送信されるID識別情報を受信し、当該ID識別情報が何れのID信号受信装置(チャネル)4AからのID識別情報であるかを、いつ当該ID識別情報が得られたか(時刻)と共に、統括装置6内に設けられたメモリに一時的に記録する。   The overall device 6 is constituted by a computer, and receives video information transmitted from the photographing means 2 in real time. Furthermore, the overall device 6 receives the ID identification information transmitted from all the ID signal receiving devices 4A and determines which ID signal receiving device (channel) 4A is the ID identification information from the ID signal receiving device 4A. The ID identification information is temporarily recorded in a memory provided in the overall device 6 together with when the ID identification information is obtained (time).

そして、これらの情報を使ってID信号送信装置21の最新の位置を判定する(図47を参照して詳述する)。なお、この判定結果は記録しても良いし、また判定結果を前記映像情報上に重畳して表示しても良いし、更にこの重畳により作成した映像を記録しても勿論良い。   Then, the latest position of the ID signal transmission device 21 is determined using these pieces of information (detailed with reference to FIG. 47). The determination result may be recorded, the determination result may be displayed superimposed on the video information, and a video created by this superposition may of course be recorded.

以下、統括装置6によるID信号送信装置21の最新の位置を判定する方法の一例を説明する。   Hereinafter, an example of a method for determining the latest position of the ID signal transmission device 21 by the overall device 6 will be described.

図47(a)は、各々のID信号検出面4A1に付与されたチャネル番号を示す図であり、図47(b)は、統括装置6によるID信号送信装置21の最新の位置を判定する方法の一例を示す図である。   FIG. 47A is a diagram showing channel numbers assigned to each ID signal detection surface 4A1, and FIG. 47B is a method for determining the latest position of the ID signal transmission device 21 by the overall device 6. It is a figure which shows an example.

すなわち、統括装置6は、各々のID信号送信装置21からのID信号光がどのID信号検出面4A1(チャネル)によりいつ検出されたかを示すデータを、例えば図47(b)に示すように保持しておく。なお、図47(b)では、最新のデータから過去3秒分のデータまでを示している。   That is, the overall device 6 holds data indicating when the ID signal light from each ID signal transmission device 21 is detected by which ID signal detection surface 4A1 (channel) as shown in FIG. 47B, for example. Keep it. In FIG. 47B, the latest data to the data for the past 3 seconds are shown.

そして、統括装置6は、各々のID信号送信装置21の位置を判定する際には、例えば図47(b)に示すような各々のID信号送信装置21からのID信号光の検出記録を、時系列的に最新のデータから順次遡っていき、各々のID信号送信装置21からのID信号光が検出された最新のデータを用いて、各々のID信号送信装置21の位置を判定する。   And when the overall device 6 determines the position of each ID signal transmission device 21, for example, a detection record of ID signal light from each ID signal transmission device 21 as shown in FIG. The position of each ID signal transmission device 21 is determined by using the latest data in which the ID signal light from each ID signal transmission device 21 is detected in order from the latest data in time series.

すなわち図47(b)に示す例では、統括装置6は、
・ID129のID信号送信装置21は、チャネル8のID信号受信装置4Aで検出された。
That is, in the example shown in FIG.
The ID signal transmission device 21 with ID 129 was detected by the ID signal reception device 4A of channel 8.

・ID026のID信号送信装置21は、チャネル1のID信号受信装置4Aで検出された。 ID ID transmitter 21 of ID026 was detected by ID signal receiver 4A of channel 1.

・ID315のID信号送信装置21は、チャネル1のID信号受信装置4Aで検出された。 The ID signal transmission device 21 of ID315 was detected by the ID signal reception device 4A of channel 1.

・ID108のID信号送信装置21は、チャネル6のID信号受信装置4Aで検出された。 The ID signal transmission device 21 of ID 108 was detected by the ID signal reception device 4A of channel 6.

と判定する。この判定結果を、図47(a)に示す各チャネルの位置に対応させて矩形内に表現すると、図48に示すようになる。そして、さらに前記撮影手段2によって取得した映像情報と重畳して表現すると、例えば図49に示すようになる。   Is determined. When this determination result is expressed in a rectangle corresponding to the position of each channel shown in FIG. 47A, it is as shown in FIG. Further, when the image information acquired by the photographing means 2 is superimposed and expressed, for example, as shown in FIG.

この図49に示すように映像とID識別情報の位置とを重ね合わせて表示することで、“映像中の個々の人が誰であるか”を容易に一覧できる。   As shown in FIG. 49, by superimposing and displaying the video and the position of the ID identification information, it is possible to easily list “who is an individual person in the video”.

具体的には、図49に示す例においては、ID026のID信号送信装置21を装着している人間とID315のID信号送信装置21を装着している人間とが、共にチャネル1のID信号受信装置4Aによる検出範囲内に位置している。この為、当該映像に映っているどちらの人間がどちらのID番号のID信号送信装置21を装着している人間であるかまでは識別できないが、時間が経ってこれらの人間が移動すれば、識別可能となる。   Specifically, in the example shown in FIG. 49, the person wearing the ID 026 ID signal transmission apparatus 21 and the person wearing the ID 315 ID signal transmission apparatus 21 both receive the ID signal of channel 1. It is located within the detection range by the device 4A. For this reason, it is impossible to identify which person in the video is the person wearing the ID signal transmission device 21 of which ID number, but if these persons move over time, Identification becomes possible.

なお、図49は、受信装置4が9つのID信号受信装置4Aを有している例、つまりチャネル数が9チャネルの例を示しているが、より多くのID信号受信装置4Aを設けてチャネル数を増加させて空間分解能を向上させることで、多数の人間が密集して位置している場合であっても、各々の人間を個別に識別できる可能性を高めることができる。   FIG. 49 shows an example in which the receiving device 4 has nine ID signal receiving devices 4A, that is, an example in which the number of channels is nine. However, more ID signal receiving devices 4A are provided and channels are provided. By increasing the number and improving the spatial resolution, it is possible to increase the possibility that each person can be individually identified even when many people are densely located.

図50は、ID番号の代わりに当該ID信号送信装置21を装着している人間の氏名を、前記撮影手段2により取得した映像上の当該人間の像に重畳して表示する例を示している。   FIG. 50 shows an example in which the name of the person wearing the ID signal transmission device 21 is superimposed on the image of the person on the video acquired by the photographing unit 2 instead of the ID number. .

このようにID番号を表示する代わりに氏名を表示するには、予めID信号送信装置21のID番号と、それを装着する人間の氏名との対応表(データベース)を作成しておく必要がある。例えば、各個人が常にそれぞれ専用のID信号送信装置21を装着するとした場合、当該データベースを一度作成すれば良い。   In order to display the name instead of displaying the ID number in this way, it is necessary to create a correspondence table (database) between the ID number of the ID signal transmission device 21 and the name of the person wearing the ID signal transmission device in advance. . For example, if each individual always wears a dedicated ID signal transmission device 21, the database may be created once.

ところで、個体情報識別システムの現実の運用に際しては、監視対象者はID信号送信装置21を必要な時だけ装着する方が便利であり、またID信号送信装置21の故障及び交換が必要になる可能性があることを鑑みると、同一人物が常に同一のID番号を付与されたID信号送信装置21を装着するとは限らない。   By the way, in the actual operation of the individual information identification system, it is more convenient for the person to be monitored to attach the ID signal transmission device 21 only when necessary, and the ID signal transmission device 21 may need to be broken or replaced. In view of this, the same person does not always wear the ID signal transmission device 21 to which the same ID number is assigned.

このような事情を鑑みると、現実の運用に際して前記データベースを作成する為には、各々のID信号送信装置21に付与されたID番号と、それを装着する人間の氏名との対応表を随時作成する必要がある。   In view of such circumstances, in order to create the database in actual operation, a correspondence table between the ID number assigned to each ID signal transmission device 21 and the name of the person wearing the ID signal is created at any time. There is a need to.

以下、各々のID信号送信装置21に付与されたID番号と、それを装着する人間の氏名との対応表を容易に作成する為の登録装置について、図51を参照して説明する。   Hereinafter, a registration device for easily creating a correspondence table between the ID number assigned to each ID signal transmission device 21 and the name of the person wearing the ID number will be described with reference to FIG.

同図に示すように、登録装置31は、ID信号受信装置4Aと、磁気カード読み取りスロット31Aとを有する。そして、登録装置31は、個体情報識別システムが適用されたエリアへの出入り口扉における電磁ロック及びその解除を行う。   As shown in the figure, the registration device 31 includes an ID signal receiving device 4A and a magnetic card reading slot 31A. And the registration apparatus 31 performs the electromagnetic lock in the doorway to the area where the individual information identification system was applied, and its release.

実際の運用においては、ID信号送信装置21を肩部等に装着した監視対象者41は、個体情報識別システムが適用されたエリアへの入室に際して、出入り口扉の電磁ロックを解除する為に、例えば身分証カード等の磁気カード33を登録装置31の磁気カード読み取りスロット31Aに通し、且つID信号受信装置4AによりID信号送信装置21からのID信号光が受信されると、当該登録装置31は電磁ロックの解除を行うと共に、ID信号受信装置4Aが検出したID信号送信装置21からのID情報と、磁気カード33から読み出した個人特定情報(氏名等)とを対応付けて作成したID対応情報を、統括装置6に送信する。   In actual operation, the person 41 to be monitored who wears the ID signal transmission device 21 on the shoulder or the like enters the area to which the individual information identification system is applied in order to release the electromagnetic lock of the entrance door, for example, When the magnetic card 33 such as an identification card is passed through the magnetic card reading slot 31A of the registration device 31 and the ID signal light from the ID signal transmission device 21 is received by the ID signal reception device 4A, the registration device 31 is electromagnetically The ID correspondence information created by associating the ID information from the ID signal transmitting device 21 detected by the ID signal receiving device 4A and the personal identification information (name, etc.) read from the magnetic card 33 while releasing the lock. , To the overall device 6.

このID対応情報により、統括装置6は、上述した監視対象者の同定処理の際に、ID信号送信装置21から得られるID情報のみに基づいて、それぞれのID信号送信装置21を装着している人間の氏名等を特定することができる。   Based on this ID correspondence information, the overall device 6 wears each ID signal transmission device 21 based on only the ID information obtained from the ID signal transmission device 21 during the above-described monitoring target person identification process. Human names can be specified.

以上説明したように、上述した個体情報識別システムによれば、監視用カメラで撮影して取得した映像中に映っている人物等を、単に当該映像を目視することのみで同定できることができる個体情報識別システムを提供することができる。   As described above, according to the above-described individual information identification system, individual information that can identify a person or the like shown in an image captured and acquired by a monitoring camera simply by visually observing the image. An identification system can be provided.

具体的には、上述した個体情報識別システムによれば、例えば手術室や工場等、複数の人間や機器等が動きながら共同作業する場面を映像によって監視する場合、つまり監視用カメラの映像だけからは当該映像に映っている人間や物が何であるかを同定するのが容易でない場合であっても、当該映像中に写っている人間や物が何であるかを自明に同定できるようになる。   Specifically, according to the above-described individual information identification system, for example, when monitoring a scene where a plurality of people or devices work together while moving, such as an operating room or a factory, for example, only from the image of the monitoring camera. Even if it is not easy to identify what is a person or an object shown in the video, it is possible to clearly identify what a person or an object is in the video.

以上説明した個体情報識別システムに対して、上述した第1実施形態に係るイベント識別システムを、例えば次のように適用することができる。   The above-described event identification system according to the first embodiment can be applied to the individual information identification system described above, for example, as follows.

すなわち、分析対象の作業に係るスタッフの各々に、前記接触型マイクロフォン3A及び前記送信機3Bを装着させる。ここで、前記ID信号送信装置21と前記送信機3Bとを一体に構成する。そして、各々のスタッフ毎に収集した音響データについて、第1実施形態において説明した分析処理を行う。   That is, each of the staff involved in the work to be analyzed is attached with the contact microphone 3A and the transmitter 3B. Here, the ID signal transmission device 21 and the transmitter 3B are integrally configured. And the analysis process demonstrated in 1st Embodiment is performed about the acoustic data collected for every staff.

このようなシステム構成を採ることで、本第3実施形態によれば、スタッフの位置、映像、発話、及び心拍音データを時系列に沿って容易に一覧で把握することができ、例えば手術等の一連の作業行為において、いつ誰が何を行ったかを、精密に且つ時系列に沿って容易に一覧で把握することを簡易な装置構成で実現するイベント識別システムを提供することができる。   By adopting such a system configuration, according to the third embodiment, staff positions, images, utterances, and heartbeat data can be easily grasped in a time-sequential manner, such as surgery. Thus, it is possible to provide an event identification system that realizes, with a simple device configuration, accurately and easily comprehending who has done what and when in a series of work actions.

以上、第1実施形態乃至第3実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。   As mentioned above, although this invention was demonstrated based on 1st Embodiment thru | or 3rd Embodiment, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are within the range of the summary of this invention. Of course it is possible.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の第1実施形態に係るイベント識別システムの一構成例を示すブロック図。1 is a block diagram showing a configuration example of an event identification system according to a first embodiment of the present invention. 音響データ収集手段の一構成例を示す図。The figure which shows the example of 1 structure of an acoustic data collection means. 心拍音データ処理手段による心拍音データの分析処理を説明する図。The figure explaining the analysis process of the heartbeat data by the heartbeat data processing means. 瞬間心拍数の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of an instantaneous heart rate. 瞬間心拍数の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of an instantaneous heart rate. 瞬間心拍数の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of an instantaneous heart rate. 呼吸の頻度の時間変化のグラフの一例、及び呼吸の深さの時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of the respiration frequency, and an example of the graph of the time change of the respiration depth. 瞬間心拍数の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of an instantaneous heart rate. 呼吸停止頻度の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of the respiration stop frequency. 周波数の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of a frequency. 会話頻度の時間変化のグラフの一例を示す図。The figure which shows an example of the graph of the time change of conversation frequency. 多変量のパターン認識技術を利用した総合判定処理を説明する図。The figure explaining the comprehensive determination process using the multivariate pattern recognition technique. 多変量のパターン認識技術を利用した総合判定処理を説明する図。The figure explaining the comprehensive determination process using the multivariate pattern recognition technique. 本発明の第1実施形態に係るイベント識別システムにより取得できるデータの一例を示す図。The figure which shows an example of the data which can be acquired by the event identification system which concerns on 1st Embodiment of this invention. 医療現場を記録して表示する医療現場表示システムの機能構成を示す図である。It is a figure which shows the function structure of the medical field display system which records and displays a medical field. 識別部と位置計測部の構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a structure of an identification part and a position measurement part. 映像加工装置の構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a structure of an image processing apparatus. 計測により得たスタッフの識別及び存在位置の情報を示す図である。It is a figure which shows the identification of the staff obtained by measurement, and the information of a presence position. 座標変換により得たスタッフの映像上の位置を表す情報を示す図である。It is a figure which shows the information showing the position on the image | video of the staff obtained by coordinate transformation. 医療現場表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a medical field display system. 撮影装置と位置計測部の受信側である超音波センサの設置状態を示す模式図である。It is a schematic diagram which shows the installation state of the ultrasonic sensor which is a receiving side of an imaging device and a position measurement part. 撮影系座標とその映像系座標との関係を示す図である。It is a figure which shows the relationship between an imaging | photography system coordinate and its video system coordinate. 医療現場表示システムで表示される映像を示す図である。It is a figure which shows the image | video displayed with a medical field display system. 医療現場表示システムで表示される映像の変形例を示す図である。It is a figure which shows the modification of the image | video displayed with a medical field display system. スタッフデータベースのデータ構造を表す図である。It is a figure showing the data structure of a staff database. 医療現場分析システムの構成を示す図である。It is a figure which shows the structure of a medical field analysis system. 医療現場分析システムの動き量計測及びキュー設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of movement amount measurement and queue setting of a medical field analysis system. 関心領域を表示画面上に表示した態様を示す模式図である。It is a schematic diagram which shows the aspect which displayed the region of interest on the display screen. 表示された関心領域に対応してこの関心領域の範囲を示す情報を取得する態様を示した模式図である。It is the schematic diagram which showed the aspect which acquires the information which shows the range of this region of interest corresponding to the displayed region of interest. 動き量を計測する対象となるスタッフを映像上で抽出する過程を示した模式図である。It is the schematic diagram which showed the process which extracts the staff used as the object which measures movement amount on an image | video. 抽出した各映像フレームのスタッフの画像領域からスタッフの動き量を計測する過程を示した模式図である。It is the schematic diagram which showed the process of measuring the amount of movement of a staff from the image area | region of the staff of each extracted video frame. 動き量記憶部に記憶させた動き量を表すデータ構成の模式図である。It is a schematic diagram of the data structure showing the motion amount memorize | stored in the motion amount memory | storage part. 動き量計測部による動き量計測の変形例を示す模式図である。It is a schematic diagram which shows the modification of the motion amount measurement by a motion amount measurement part. 動きの激しい時刻を記憶する態様を示すグラフである。It is a graph which shows the aspect which memorize | stores time with intense motion. キューインデックスを示すデータ構造図である。It is a data structure figure which shows a queue index. 動きの激しい時刻を記憶する態様の変形例を示すグラフである。It is a graph which shows the modification of the aspect which memorize | stores time with intense motion. 動き量計測及びキュー設定に基づき、映像を再生させる動作を示すフローチャートである。It is a flowchart which shows the operation | movement which reproduces | regenerates an image | video based on a motion amount measurement and cue setting. キューインデックスの表示態様を示す模式図である。It is a schematic diagram which shows the display mode of a queue index. 本発明の第3実施形態に係る個体情報識別システムの一構成例を示す図。The figure which shows the example of 1 structure of the individual information identification system which concerns on 3rd Embodiment of this invention. 撮影手段によって取得した映像の一表示例を示す図。The figure which shows the example of 1 display of the image | video acquired by the imaging | photography means. (a)は、受信装置が9チャネルのID信号受信装置により構成される場合のID信号受光面の一構成例を示す図。(b)は、9チャネル分のID信号受信装置のID信号検出面を格子状に並べ且つチャネル番号を割り当てる一構成例を示す図。(A) is a figure which shows one structural example of an ID signal light-receiving surface in case a receiver is comprised by 9-channel ID signal receiver. FIG. 7B is a diagram illustrating a configuration example in which ID signal detection surfaces of ID signal receiving apparatuses for nine channels are arranged in a lattice pattern and channel numbers are assigned. ID信号受信装置の一構成例を示す図。The figure which shows the example of 1 structure of ID signal receiver. 受信装置によって受信されるID信号を送信するID信号送信装置の一構成例を示す図。The figure which shows the example of 1 structure of ID signal transmitter which transmits ID signal received by the receiver. ID信号送信装置によるID信号光の送信タイミングを示す図。The figure which shows the transmission timing of ID signal light by ID signal transmitter. 撮影手段によって取得した映像と、ID信号光の発光位置とを重ねて示した図。The figure which showed the image | video acquired by the imaging | photography means, and the light emission position of ID signal light superimposed. ID信号受光面に投影されるID信号光を模式的に示す図。The figure which shows typically the ID signal light projected on an ID signal light-receiving surface. ID信号受信装置におけるMPUによる処理のフローチャートを示す図。The figure which shows the flowchart of the process by MPU in an ID signal receiver. (a)は、各々のID信号検出面に付与されたチャネル番号を示す図。(b)は、統括装置によるID信号送信装置の最新の位置を判定する方法の一例を示す図。(A) is a figure which shows the channel number provided to each ID signal detection surface. (B) is a figure which shows an example of the method of determining the newest position of the ID signal transmitter by a supervising apparatus. 統括装置による判定結果を、図10(a)に示す各チャネルの位置に対応させて矩形で表現して示した図。FIG. 11 is a diagram illustrating a determination result by the overall device expressed in a rectangle corresponding to the position of each channel illustrated in FIG. 撮影手段により取得した映像を、図11に示す図に重畳して示した図。The figure which superimposed and showed the image | video acquired by the imaging | photography means on the figure shown in FIG. ID番号の代わりにID信号送信装置を装着している人間の氏名を、撮影手段により取得した映像上の当該人間の像に重畳して表示する例を示した図。The figure which showed the example which superimposes and displays on the image of the said person on the image | video acquired by the imaging | photography means the name of the person who is mounting | wearing with the ID signal transmission apparatus instead of ID number. 各々のID信号送信装置に付与されたID番号と、それを装着する人間の氏名との対応表を容易に作成する為の登録装置の構成を示す図。The figure which shows the structure of the registration apparatus for producing easily the correspondence table of the ID number provided to each ID signal transmission apparatus, and the name of the person who wears it.

符号の説明Explanation of symbols

1…ID識別カメラ、 2…撮影手段、 2A…カメラ受光面、 2B…カメラ制御装置、 2ID…発光素子、 3…識別部、 3A…接触型マイクロフォン、 3B…送信機、 4…受信装置、 4A…ID信号受信装置、 4A11…ID信号受光面、 4A1…ID信号検出面、 4A2…感光素子、 4A3…ハイパスフィルタ、 4A4…デモジュレータ、 4A5…バッファメモリ、 4A6…MPU、 5…映像加工装置、 11…撮影レンズ、 13…ビームスプリッタ、 21…ID信号送信装置、 21D…発光素子、 21A…電源、 21B…ROM、 21C…ドライバ回路、 21E…散乱板、 31…登録装置、 31A…取りスロット、 33…磁気カード、 41…監視対象者、 52…位置記憶部、 56…スタッフデータベース、 81…信号発信体、 82…発信体計測装置、 92…ROI設定部、 95…キュー設定部、 96…キューインデックス記憶部、 101…医療現場表示システム、 102…撮影装置、 103…識別部、 104…位置計測部、 105…映像加工装置、 106…表示装置、 107…入力装置、 109…医療現場分析システム、 121…RFタグ、 122…無線送受信部、 131…超音波発振器、 132…超音波センサ、 133…計測系位置計算部、 151…映像記録部、 152…位置記憶部、 153…映像系位置計算部、 154…映像系位置記憶部、 155…表示制御部、 156…スタッフデータベース、 181…信号発信体、 182…信号受信体、 183…制御信号発信部、 191…医療現場情報記憶部、 192…ROI設定部、 193…動き量計測部、 194…動き量記憶部、 195…キュー設定部、 196…キューインデックス記憶部、 197…制御部、 300…音響データ収集手段、 300A…接触型マイクロフォン、 300C…受信機、 300B…送信機、 500…フィルタ手段、 700A…心拍音データ処理手段、 700B…心拍音除去データ処理手段。     DESCRIPTION OF SYMBOLS 1 ... ID identification camera, 2 ... Imaging | photography means, 2A ... Camera light-receiving surface, 2B ... Camera control apparatus, 2ID ... Light-emitting element, 3 ... Identification part, 3A ... Contact-type microphone, 3B ... Transmitter, 4 ... Receiver, 4A ... ID signal receiving device, 4A11 ... ID signal light receiving surface, 4A1 ... ID signal detecting surface, 4A2 ... Photosensitive element, 4A3 ... High pass filter, 4A4 ... Demodulator, 4A5 ... Buffer memory, 4A6 ... MPU, 5 ... Video processing device, DESCRIPTION OF SYMBOLS 11 ... Shooting lens, 13 ... Beam splitter, 21 ... ID signal transmission device, 21D ... Light emitting element, 21A ... Power source, 21B ... ROM, 21C ... Driver circuit, 21E ... Scattering plate, 31 ... Registration device, 31A ... Taking slot, 33 ... Magnetic card, 41 ... Person to be monitored, 52 ... Location memory, 56 ... Staff day Base: 81: Signal transmitter, 82: Transmitter measuring device, 92: ROI setting unit, 95: Queue setting unit, 96: Cue index storage unit, 101: Medical field display system, 102: Imaging device, 103: Identification unit 104 ... Position measurement unit 105 ... Video processing device 106 ... Display device 107 ... Input device 109 ... Medical field analysis system 121 ... RF tag 122 122 Wireless transmission / reception unit 131 ... Ultrasonic oscillator 132 ... Ultra Sonic sensor 133 ... measurement system position calculation unit 151 ... video recording unit 152 ... position storage unit 153 ... video system position calculation unit 154 ... video system position storage unit 155 ... display control unit 156 ... staff database, 181 ... Signal transmitter, 182 ... Signal receiver, 183 ... Control signal transmitter, 191 ... Medical site information Memory unit, 192 ... ROI setting unit, 193 ... Movement amount measurement unit, 194 ... Motion amount storage unit, 195 ... Cue setting unit, 196 ... Cue index storage unit, 197 ... Control unit, 300 ... Acoustic data collection means, 300A ... Contact type microphone, 300C ... receiver, 300B ... transmitter, 500 ... filter means, 700A ... heartbeat data processing means, 700B ... heartbeat removal data processing means.

Claims (9)

一連の作業行為の中で所定の事象が生じた時刻を検索可能に記録するイベント識別システムであって、
前記一連の作業行為に係る者の心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記一連の作業行為に係る者の呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で前記所定の事象が生じた時刻を判定且つ記録するイベント識別手段と、
を具備することを特徴とするイベント識別システム。
An event identification system for recordably recording a time when a predetermined event occurs in a series of work actions,
Acoustic data collection means for collecting acoustic data including heartbeat sounds of persons involved in the series of work actions;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to respiration of a person involved in the series of work actions based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining and recording the time at which the predetermined event occurred in the series of work actions based on the respiratory information generated by the respiratory information generating means;
An event identification system comprising:
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータ以外のデータを抽出する心拍音除去データ抽出手段と、
前記心拍音除去データ抽出手段によって抽出されたデータに基づいて、前記一連の作業行為の中で前記所定の事象が生じた時刻を判定する判定手段と、
を含むことを特徴とする請求項1に記載のイベント識別システム。
Heartbeat sound removal data extraction means for extracting data other than data relating to the heartbeat sound from the acoustic data collected by the acoustic data collection means;
Determination means for determining a time at which the predetermined event occurs in the series of work actions based on the data extracted by the heartbeat removal data extraction means;
The event identification system according to claim 1, comprising:
前記音響データ収集手段は接触型マイクロフォンを含むことを特徴とする請求項1に記載のイベント識別システム。   The event identification system according to claim 1, wherein the acoustic data collection unit includes a contact microphone. 前記心拍音データ抽出手段は、所定のフィルタ処理によって、前記音響データから前記心拍音データを抽出することを特徴とする請求項1に記載のイベント識別システム。   The event identification system according to claim 1, wherein the heartbeat data extraction unit extracts the heartbeat data from the acoustic data by a predetermined filter process. 前記イベント識別手段は、前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為に係る者の呼吸停止、発話、及び動作が生じたか否かを判定することを特徴とする請求項1に記載のイベント識別システム。   The event identification means determines whether or not a breathing stop, an utterance, and an action of a person involved in the series of work actions have occurred based on the breathing information generated by the breathing information generation means. The event identification system according to claim 1. 前記呼吸情報生成手段によって生成される前記呼吸情報は、瞬間心拍数の時間変化を示す情報を含むことを特徴とする請求項1に記載のイベント識別システム。   The event identification system according to claim 1, wherein the respiration information generated by the respiration information generation unit includes information indicating a temporal change in instantaneous heart rate. 前記判定手段は、前記心拍音除去データ抽出手段によって抽出されたデータに基づいて、前記一連の作業行為に係る者の呼吸停止、発話、及び動作が生じたか否かを判定することを特徴とする請求項2に記載のイベント識別システム。   The determination means determines whether or not a person involved in the series of work actions has stopped breathing, uttered, or moved based on the data extracted by the heartbeat sound removal data extraction means. The event identification system according to claim 2. 一連の作業行為が行われる現場を撮影した映像を時系列で記憶する現場情報記憶手段と、
前記スタッフの心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記スタッフの呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で所定の事象が生じた時刻を判定するイベント識別手段と、
前記イベント識別手段によって前記所定の事象が生じたと判定された時刻を記憶するキューインデックス記憶手段と、
前記キューインデックス記憶手段によって記憶された時刻に対応してキューマークを表示させ、オペレータにより指定されたキューマークに対応する時刻から前記映像を表示させる頭出し表示制御手段と、
を具備することを特徴とするイベント識別システム。
On-site information storage means for storing time-series video images of a scene where a series of work activities are performed,
Acoustic data collection means for collecting acoustic data including the staff's heartbeat;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to breathing of the staff based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining a time when a predetermined event occurs in the series of work actions based on the respiratory information generated by the respiratory information generating means;
A queue index storage means for storing a time when the event identification means determines that the predetermined event has occurred;
A cue display control means for displaying a cue mark corresponding to the time stored by the cue index storage means and displaying the video from the time corresponding to the cue mark designated by the operator;
An event identification system comprising:
一連の作業行為の中で所定の事象が生じた時刻を検索可能に記録するイベント識別システムであって、
前記一連の作業行為が行われる現場を撮影して映像情報を取得する撮影手段と、
前記一連の作業行為に係る者に装着され、個体を識別する為の個体識別情報を含む信号である個体識別信号を送信する送信装置と、
前記個体識別信号の発信場所を特定する為の空間分解能を有し、前記送信装置から送信される個体識別信号を受信する受信手段と、
前記撮影手段によって取得した前記映像情報と、前記受信手段によって受信した前記個体識別信号の発信場所とを対応付ける統括手段と、
各々の前記送信装置毎に付与された前記個体識別情報と、当該送信装置を装着する者に関する個人特定情報と、を対応付ける為の登録装置と、
前記一連の作業行為に係る者の心拍音を含む音響データを収集する音響データ収集手段と、
前記音響データ収集手段によって収集された前記音響データから、前記心拍音に係るデータを抽出する心拍音データ抽出手段と、
前記心拍音データ抽出手段によって抽出された心拍音データに基づいて、前記一連の作業行為に係る者の呼吸に関する呼吸情報を生成する呼吸情報生成手段と、
前記呼吸情報生成手段によって生成された前記呼吸情報に基づいて、前記一連の作業行為の中で前記所定の事象が生じた時刻を判定するイベント識別手段と、
を具備することを特徴とするイベント識別システム。
An event identification system for recordably recording a time when a predetermined event occurs in a series of work actions,
Photographing means for photographing the site where the series of work actions are performed and obtaining video information;
A transmitter that is attached to a person involved in the series of work actions and transmits an individual identification signal that is an individual identification information for identifying an individual;
Receiving means for receiving an individual identification signal transmitted from the transmission device, having a spatial resolution for specifying a transmission location of the individual identification signal;
Generalization means for associating the video information acquired by the imaging means with the transmission location of the individual identification signal received by the reception means;
A registration device for associating the individual identification information given to each of the transmission devices with personal identification information about a person wearing the transmission device;
Acoustic data collection means for collecting acoustic data including heartbeat sounds of persons involved in the series of work actions;
Heartbeat data extraction means for extracting data relating to the heartbeat from the acoustic data collected by the acoustic data collection means;
Respiration information generating means for generating respiration information related to respiration of a person involved in the series of work actions based on the heartbeat data extracted by the heartbeat data extracting means;
Event identifying means for determining the time at which the predetermined event occurred in the series of work actions based on the respiratory information generated by the respiratory information generating means;
An event identification system comprising:
JP2008171408A 2008-06-30 2008-06-30 Event identification system Active JP5197188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008171408A JP5197188B2 (en) 2008-06-30 2008-06-30 Event identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008171408A JP5197188B2 (en) 2008-06-30 2008-06-30 Event identification system

Publications (2)

Publication Number Publication Date
JP2010005326A true JP2010005326A (en) 2010-01-14
JP5197188B2 JP5197188B2 (en) 2013-05-15

Family

ID=41586475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008171408A Active JP5197188B2 (en) 2008-06-30 2008-06-30 Event identification system

Country Status (1)

Country Link
JP (1) JP5197188B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170109A (en) * 2010-02-18 2011-09-01 Nikon Corp Information processing apparatus
US8989473B2 (en) 2010-07-05 2015-03-24 Kabushiki Kaisha Toshiba Medical imaging apparatus and medical image diagnosis apparatus
US9013399B2 (en) 2010-02-18 2015-04-21 Nikon Corporation Information processing device, portable device and information processing system
US9031186B2 (en) 2010-06-04 2015-05-12 Kabushiki Kaisha Toshiba X-ray imaging apparatus including work-state detection and X-ray dosage control
JP2022511604A (en) * 2018-10-03 2022-02-01 シーエムアール・サージカル・リミテッド Indicator system
EP4203764A4 (en) * 2020-08-28 2024-05-08 Covidien Lp System and method for pairing medical devices
JP7500667B2 (en) 2018-10-03 2024-06-17 シーエムアール・サージカル・リミテッド Indicator System

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5654750A (en) * 1995-02-23 1997-08-05 Videorec Technologies, Inc. Automatic recording system
JP2004507941A (en) * 2000-08-23 2004-03-11 オーブ リミテッド Data recorder
JP2004280455A (en) * 2003-03-14 2004-10-07 Toshiba Corp Medical information system
WO2006001055A1 (en) * 2004-06-25 2006-01-05 Seventh Dimension Design, Inc. Medical image management system and medical image management method
JP2006223375A (en) * 2005-02-15 2006-08-31 Olympus Corp Surgery data recorder, surgery data display device and surgery data recording and displaying method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5654750A (en) * 1995-02-23 1997-08-05 Videorec Technologies, Inc. Automatic recording system
JP2004507941A (en) * 2000-08-23 2004-03-11 オーブ リミテッド Data recorder
JP2004280455A (en) * 2003-03-14 2004-10-07 Toshiba Corp Medical information system
WO2006001055A1 (en) * 2004-06-25 2006-01-05 Seventh Dimension Design, Inc. Medical image management system and medical image management method
JP2006223375A (en) * 2005-02-15 2006-08-31 Olympus Corp Surgery data recorder, surgery data display device and surgery data recording and displaying method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170109A (en) * 2010-02-18 2011-09-01 Nikon Corp Information processing apparatus
US9013399B2 (en) 2010-02-18 2015-04-21 Nikon Corporation Information processing device, portable device and information processing system
US9626151B2 (en) 2010-02-18 2017-04-18 Nikon Corporation Information processing device, portable device and information processing system
US9031186B2 (en) 2010-06-04 2015-05-12 Kabushiki Kaisha Toshiba X-ray imaging apparatus including work-state detection and X-ray dosage control
US8989473B2 (en) 2010-07-05 2015-03-24 Kabushiki Kaisha Toshiba Medical imaging apparatus and medical image diagnosis apparatus
JP2022511604A (en) * 2018-10-03 2022-02-01 シーエムアール・サージカル・リミテッド Indicator system
JP2022145863A (en) * 2018-10-03 2022-10-04 シーエムアール・サージカル・リミテッド indicator system
JP7308936B2 (en) 2018-10-03 2023-07-14 シーエムアール・サージカル・リミテッド indicator system
JP7500667B2 (en) 2018-10-03 2024-06-17 シーエムアール・サージカル・リミテッド Indicator System
EP4203764A4 (en) * 2020-08-28 2024-05-08 Covidien Lp System and method for pairing medical devices

Also Published As

Publication number Publication date
JP5197188B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
JP7387185B2 (en) Systems, methods and computer program products for physiological monitoring
CN105190691B (en) Equipment for obtaining the vital sign of object
US10898160B2 (en) Acoustic monitoring system, monitoring method, and monitoring computer program
JP5197188B2 (en) Event identification system
US20170188868A1 (en) System and method of identification of the heart valve signals
TW201935468A (en) System and method for sound localization
Bonilha et al. Vocal fold phase asymmetries in patients with voice disorders: a study across visualization techniques
US20120302900A1 (en) Method and apparatus for processing a cyclic physiological signal
US20220007964A1 (en) Apparatus and method for detection of breathing abnormalities
Chen et al. Intelligent heartsound diagnostics on a cellphone using a hands-free kit
CN107077214A (en) For the method and system of the communication used within the hospital
CN113838544A (en) System, method and computer program product for providing feedback relating to medical examinations
CN108882853A (en) Measurement physiological parameter is triggered in time using visual context
US20220270344A1 (en) Multimodal diagnosis system, method and apparatus
Rahman et al. BreathEasy: Assessing respiratory diseases using mobile multimodal sensors
JP2005135344A (en) Medical information system
KR20140115153A (en) Apparatus and Method for Analysing Audience Reaction And System for Analysing Audience Reaction Using the Same
TWM446374U (en) Coughs recording device
CN115813343A (en) Child behavior abnormity evaluation method and system
KR20220072484A (en) Autism spectrum disorder evaluation method based on facial expression analysis
KR102577759B1 (en) System for measuring biomedical signal and method for measuring biomedical signal therof
JP5203628B2 (en) Medical site display system
WO2024057260A1 (en) Respiratory evaluation and monitoring system and method
TWM648086U (en) Body trajectory movement record recognition and trajectory big data analysis system
KR20220170673A (en) Apparatus and method for analysing disease of lung based on pulmonary sound

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5197188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350