JP2020081088A - 情報処理装置、情報処理システム、および、プログラム - Google Patents

情報処理装置、情報処理システム、および、プログラム Download PDF

Info

Publication number
JP2020081088A
JP2020081088A JP2018216664A JP2018216664A JP2020081088A JP 2020081088 A JP2020081088 A JP 2020081088A JP 2018216664 A JP2018216664 A JP 2018216664A JP 2018216664 A JP2018216664 A JP 2018216664A JP 2020081088 A JP2020081088 A JP 2020081088A
Authority
JP
Japan
Prior art keywords
exercise
instruction
information
information processing
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018216664A
Other languages
English (en)
Inventor
知宏 西尾
Tomohiro Nishio
知宏 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LASSIC
LASSIC CO Ltd
Original Assignee
LASSIC
LASSIC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LASSIC, LASSIC CO Ltd filed Critical LASSIC
Priority to JP2018216664A priority Critical patent/JP2020081088A/ja
Publication of JP2020081088A publication Critical patent/JP2020081088A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Rehabilitation Tools (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】顔の特定部位の運動情報を、作業負担を軽減して取得可能とする技術を提供する。【解決手段】顔の特定部位の運動情報を取得する情報処理装置2は、特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う指示処理部213と、運動指示により行われる特定部位の運動を撮影した撮影映像に基づき運動情報を取得する運動情報取得部215と、を備える。【選択図】図2

Description

本発明は、顔の特定部位の運動情報を取得する技術に関する。
食べ物や唾液等が気管に入ってしまう誤嚥が原因となって肺炎(誤嚥性肺炎)を生じることがある。誤嚥性肺炎の予防策として、口腔ケアが有効であるとの報告が多くなされている。口腔機能の向上を目的とした、口腔内清掃の指導や、摂食・嚥下機能に関する訓練は、言語聴覚士や歯科衛生士によって行われている。
誤嚥の予防や嚥下障害のリハビリテーションにおいては、機能障害の有無や程度について如何に評価を行うかが重要になる。嚥下障害の評価において、嚥下器官の運動機能の評価は必須である。嚥下器官には、例えば口、頬、舌等が含まれる。現状においては、言語聴覚士等が、嚥下器官の運動機能の評価を行うために決められた複数の評価項目を1つ1つ検査していくことが多い。
特許文献1には、口唇閉鎖力を高精度で、且つ、安定して測定することを可能とする技術が開示される。口唇閉鎖力は、口唇の機能を検査する項目の一例であり、上唇と下唇とを閉じる力である。
特開2016−185197号公報
現状、摂食・嚥下機能に関する訓練を行ったり、機能障害に関する評価を行ったりする言語聴覚士や歯科衛生士は不足している。言語聴覚士等の指導の下、嚥下訓練等を行うことができる介護施設等の数は限定的になっている。このために、介護施設等においては、言語聴覚士等が行う評価作業や訓練業務の負担を軽減することができる技術の導入が望まれている。
また、嚥下障害等の機能障害と、顔に含まれる器官の運動機能との関係について、現状、十分なデータがない。このために、研究の発展等を目的として、顔に含まれる器官の運動機能に関する多くのデータを収集できる技術が望まれている。また、顔に含まれる器官の運動機能は、美容にも関係している可能性が高い。このために、美容の分野においても、顔に含まれる器官の運動機能に関する情報の収集等が望まれている。
本発明は、顔の特定部位の運動情報を、作業負担を軽減して取得可能とする技術を提供することを目的とする。
上記目的を達成するために本発明の情報処理装置は、顔の特定部位の運動情報を取得する情報処理装置であって、前記特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う指示処理部と、前記運動指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得部と、を備える構成(第1の構成)になっている。
上記第1の構成の情報処理装置において、前記運動指示には、複数種類の運動指示が含まれ、前記指示処理部は、前記複数種類の運動指示を所定の順番で時間間隔をあけて表示させる構成(第2の構成)であってよい。
上記第1又は第2の構成の情報処理装置は、前記運動指示と合わせて前記撮影映像を前記表示画面に表示させる処理を行う映像表示処理部を更に備える構成(第3の構成)であってよい。
上記第1から第3のいずれかの構成の情報処理装置において、前記指示処理部は、所定の体操に関する指示を前記表示画面に表示させる処理の一環として前記運動指示を前記表示画面に表示させる構成(第4の構成)であってよい。
上記第4の構成の情報処理装置において、前記所定の体操には発声運動が含まれ、前記運動指示には、前記発声運動を行うことを指示する運動指示が含まれ、前記発声運動中に集音された音声に基づき発声運動情報を取得する発声運動情報取得部を更に備える構成(第5の構成)であってよい。
上記第1から第5のいずれかの構成の情報処理装置は、前記運動情報の取得結果を前記表示画面に表示させる処理を行う結果表示処理部を更に備える構成(第6の構成)であってよい。
上記第1から第6のいずれかの構成の情報処理装置は、前記運動情報を自装置の外部に送信するための処理を行う送信処理部を更に備える構成(第7の構成)であってよい。
上記第1から第7のいずれかの構成の情報処理装置において、前記特定部位には、口、頬、および、舌のうちの少なくともいずれか1つが含まれる構成(第8の構成)であることが好ましい。
上記目的を達成するために本発明の情報処理システムは、上記構成の情報処理装置と、前記表示画面を有する表示装置と、前記撮影映像を撮影する撮影装置と、を備える構成(第9の構成)になっている。
上記目的を達成するために本発明のプログラムは、情報処理装置に含まれるコンピュータによって実行されるプログラムであって、前記コンピュータを、顔の特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う指示処理手段と、前記運動指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得手段と、として機能させる構成(第10の構成)になっている。
上記目的を達成するために本発明のプログラムは、情報処理装置に含まれるコンピュータによって実行されるプログラムであって、前記コンピュータを、顔の特定部位の運動を含む所定の体操に関する指示を表示画面に表示させる処理を行う指示処理手段と、前記指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得手段と、として機能させる構成(第11の構成)になっている。
本発明によれば、顔の特定部位の運動情報を、作業負担を軽減して取得することができる。
本発明の実施形態に係る情報処理システムの利用形態の一例を示すブロック図 本発明の実施形態に係る情報処理装置の構成を示すブロック図 顔の特徴点を結んだ3D画像の一例を示す図 本実施形態の3D画像における座標軸を示す模式図 口を開けた時の大きさを測定する手法の一例を示す模式図 口を開けた時の大きさを測定する手法の一例を示す模式図 本発明の実施形態に係る情報処理装置による運動情報の取得動作例を示すフローチャート 嚥下体操を開始する際における、タブレット端末の準備動作について説明するための模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末において、嚥下体操に関する指示を行うために表示される画面を例示する模式図 タブレット端末の動作例を説明するための図 嚥下体操後に表示される採点結果の画面の一例を示す模式図 顔の特定部位の表面積を求める方法について説明するための図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。
<1.情報処理システムの概要>
図1は、本発明の実施形態に係る情報処理システム1の利用形態の一例を示すブロック図である。図1に示すように、情報処理システム1は、情報処理装置2と、撮影装置3と、表示装置4とを備える。情報処理システム1は、集音装置5と、通信装置6とを更に備える。情報処理システム1は、集音装置5と、通信装置6とを備えなくてもよい。
情報処理システム1は、各装置2〜6が一体的に纏められた構成であることが好ましい。ただし、情報処理システム1は、各装置2〜6のうちの少なくとも1つが他の装置と分離して設けられる構成であってもよい。情報処理システム1は、例えば、タブレット端末、スマートフォン、ノート型のパーソナルコンピュータ等であってよい。
情報処理装置2は、顔の特定部位の運動情報を取得する装置である。顔の特定部位には、口、頬、および、舌のうちの少なくともいずれか1つが含まれることが好ましい。これにより、例えば嚥下障害に関する評価を行うことが可能になる。この結果、例えば言語聴覚士や歯科衛生士の負担を軽減することが可能になる。本実施形態では、情報処理装置2は、口、頬、および、舌の運動情報を取得する。なお、顔の特定部位は、口、頬、および、舌に限定されず、例えば、下顎、額、瞼等であってもよい。顔の特定部位は、口唇部周辺に存在する部位を含むことが好ましい。
本実施形態では、情報処理装置2は、発声運動の運動情報も取得する。すなわち、情報処理装置2は、顔の特定部位の運動情報に加えて、発声運動の運動情報も取得する。ただし、情報処理装置2は、発声運動の運動情報を取得しない構成であってもよい。
撮影装置3は、カメラを備える。撮影装置3は、カメラの他に、例えば赤外線を発光する発光装置を備えてよい。この場合、カメラは赤外線カメラであることが好ましい。撮影装置3は、複数のカメラを備えてよい。複数のカメラは、異なる種類のカメラであってよい。例えば、撮影装置3は、赤外線カメラと、RGBカメラとを備えてよい。
撮影装置3は、顔の特定部位の運動を撮影可能に設けられる。情報処理システム1が、例えばタブレット端末である場合、撮影装置3が備えるカメラは、タブレット端末の表示画面の正面に位置する人を撮影可能な位置に配置されることが好ましい。撮影装置3は、有線又は無線により情報処理装置2と通信可能に設けられ、撮影映像を情報処理装置2に出力する。
表示装置4は、表示画面を有する。表示装置4の表示画面は、例えば液晶ディスプレイや有機ELディスプレイを用いて構成される。表示装置4は、有線又は無線により情報処理装置2と通信可能に設けられ、情報処理装置2からの指示に応じて画面表示を行う。
集音装置5は、表示画面の正面に位置する人が発する音声を集音可能なマイクロホンである。集音装置5は、有線又は無線により情報処理装置2と通信可能に設けられ、音声データを情報処理装置2に出力する。
通信装置6は、インターネット100への接続を可能にする。本実施形態では、情報処理装置2は、インターネット100を介してサーバ101に接続される。通信装置6は、取得した運動情報(顔の特定部位の運動情報、および、発声運動の運動情報)を、インターネット100を介してサーバ101に送信する。サーバ101は、複数の人の運動情報を区別して管理する。サーバ101に蓄積された運動情報は、インターネット100を介して端末装置102によって取得することができる。
端末装置102は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォンである。例えば、介護施設や、歯科医療施設には、据え置き型の端末装置102が配置される。介護福祉士、言語聴覚士、歯科衛生士、歯科医等は、据え置き型の端末装置102を利用して被介護者や患者の運動情報をサーバ101から取得する。例えば、介護福祉士、言語聴覚士、歯科衛生士、歯科医等は、携帯型の端末装置102を所持してもよい。この場合、介護施設や医療施設の外部に居る場合でも、介護福祉士等はサーバ101内に蓄積される運動情報を見ることができる。端末装置102は、取得した運動情報を自動的に電子カルテに書き込む構成であってよい。
なお、通信装置6は、インターネット100を介することなく、端末装置102と直接データの送受信を行うことができる構成であってもよい。また、情報処理装置2は、取得した運動情報(顔の特定部位の運動情報、および、発声運動の運動情報)を、自身が備えるメモリに保存する構成等であってよい。
<2.情報処理装置>
(2−1.情報処理装置の構成)
図2は、本発明の実施形態に係る情報処理装置2の構成を示すブロック図である。図2に示すように、情報処理装置2は、制御部21と、記憶部22とを備える。
制御部21は、情報処理装置2の全体を制御する。制御部21は、例えば、CPU(Central Processing Unit)、RAM(Random Access Unit)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。本実施形態において、制御部21は、情報処理装置2に含まれるコンピュータである。
記憶部22は、情報処理装置2の動作に必要な各種の情報を記憶する。記憶部22は、例えばRAMおよびROMを含んで構成されてよい。なお、記憶部22は、情報処理装置2に対して着脱可能なメモリカード等の可搬型記録媒体を用いる構成であってもよい。また、記憶部22は、制御部21に含まれるRAMおよびROMにより構成されてもよい。
記憶部22は、プログラム221を記憶する。プログラム221は、情報処理装置2に含まれる制御部21(コンピュータ)によって実行される。プログラム221は、顔の特定部位の運動情報を取得する情報処理を制御部21に実行させるための命令を含む。なお、本実施形態のプログラム221は、発声運動の運動情報を取得する情報処理を制御部21に実行させるための命令も含む。プログラム221は、コンピュータによって読み取り可能な有形の記録媒体に記憶されている。記憶部22は、その他、顔の特定部位の運動情報や発声運動の運動情報を取得するために必要となる各種のデータを記憶する。記憶部22は、取得した運動情報を処理するために必要となる各種のデータを含んでもよい。
制御部21は、記憶部22に記憶されたプログラム221の演算処理を実行することにより、映像取得部211、音声取得部212、指示処理部213、映像表示処理部214、運動情報取得部215、発声運動情報取得部216、結果表示処理部217、および、送信処理部218としての機能を実現する。換言すると、情報処理装置2は、映像取得部211と、音声取得部212と、指示処理部213と、映像表示処理部214と、運動情報取得部215と、発声運動情報取得部216と、結果表示処理部217と、送信処理部218とを備える。
なお、制御部21が備える各機能部211〜218のうちの少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部21が備える各機能部211〜218は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。
映像取得部211は、撮影装置3からアナログ又はデジタルの映像を取得する。取得した映像がアナログの場合には、そのアナログの映像をデジタルの映像に変換(A/D変換)する。音声取得部212は、集音装置5からアナログ又はデジタルの音声データを取得する。取得した音声データがアナログの場合には、そのアナログの音声データをデジタルの音声データに変換(A/D変換)する。なお、情報処理装置2が発声運動の運動情報を取得しない構成である場合には、音声取得部212は設けられなくてよい。
指示処理部213は、顔の特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う。表示画面は、表示装置4の表示画面である。運動指示は、例えば、文字による指示であってよい。ただし、運動指示は、文字に替えて、或いは、文字に加えて、例えばイラストや画像による指示であってもよい。運動指示に関するデータは、例えば記憶部22に記憶される。指示処理部213(制御部21)からの指令により、表示装置4は運動指示を画面表示する。本実施形態では、運動指示を表示画面に表示させて、被測定者に顔の特定部位に関してどのような運動を行えばよいかを簡単に理解させることができる。このために、被測定者が顔の特定部位の運動を行う際に、言語聴覚士や歯科衛生士等の専門家が実際に立ち会わなくても運動を行わせることができ、言語聴覚士等の負担を軽減することができる。
本実施形態では、運動指示には、複数種類の運動指示が含まれる。ただし、運動指示は、1種類の運動指示であってもよい。運動指示としては、例えば、口を動かす指示(例えば口の開閉運動や口角の運動)、舌を動かす指示、頬を動かす指示、下顎を動かす指示等が挙げられる。なお、同じ部位(口等)に対して複数種類の運動指示があってよい。
指示処理部213は、複数種類の運動指示を所定の順番で時間間隔をあけて表示させる。これによれば、例えば言語聴覚士や歯科衛生士等が、口等の運動が行われる現場に居なくても、複数種類の運動を被測定者に対して効率良く行わせることができる。すなわち、言語聴覚士や歯科衛生士等の負担を軽減することができる。
なお、本実施形態では、情報処理装置2は発声運動の運動情報も取得する。このために、運動指示には、発声運動を行うことを指示する運動指示も含まれる。
映像表示処理部214は、運動指示と合わせて、当該運動指示により行われる特定部位の運動を撮影した撮影映像を表示画面に表示させる処理を行う。撮影映像は撮影装置3によって撮影される。なお、本実施形態では、映像表示処理部214は、発声運動の運動指示の場合にも、運動指示と合わせて、発声運動を撮影した撮影映像を画面表示させる処理を行う。映像表示処理部214は、例えば、運動指示が表示画面に表示された後に運動を行う者(被測定者)の撮影映像の表示を開始させてもよいし、運動指示と同時に運動を行う者の撮影映像の表示を開始させてもよい。映像表示処理部214(制御部21)からの指令により、表示装置4は、撮影装置3により撮影される撮影映像を画面表示する。
本実施形態によれば、運動(本実施形態では、顔の特定部位の運動および発声運動)を行う者は、表示画面に表示される自身の映像を見ながら運動を行うことができる。このために、運動を行う者は、運動指示に合った運動を行い易くなる。なお、運動指示と合わせて撮影映像を表示させる処理は、必ずしも行われなくてよい。すなわち、映像表示処理部214は設けられなくてもよい。
運動情報取得部215は、運動指示により行われる顔の特定部位の運動を撮影した撮影映像に基づき顔の特定部位の運動情報を取得する。運動情報取得部215は、例えば運動指示が口の運動指示である場合、口の運動を撮影した撮影映像に基づき口の運動情報を取得する。なお、例えば同じ特定部位(例えば口)の運動であっても、運動指示の種類が異なれば、運動情報取得部215は、異なる運動情報を得る。また、運動情報取得部215は、複数部位の運動情報を同時に取得できることが好ましい。例えば、運動情報取得部215は、頬の運動情報と、口の運動情報とを並行して取得する構成であってよい。運動情報取得部215は、口の運動情報と、瞼の運動情報とを並行して取得する構成であってよい。また、運動情報取得部215は、同じ部位について複数種類の運動情報を同時に取得できることが好ましい。例えば、運動情報取得部215は、口の大きさに関する運動情報と、口角に関する運動情報とを並行して取得してよい。
運動情報取得部215は、撮影映像の中から、当該映像に映る人の顔を認識する。また、運動情報取得部215は、映像中において認識した人の顔に含まれる各部位(例えば、目、鼻、口、頬、舌等)を認識する。映像中の人の顔の認識、および、映像中の顔の各部位の認識は、例えばパターンマッチングや機械学習といった公知の技術を利用して行われればよい。運動情報取得部215は、例えば、認識した顔の特定部位(口等)の特定箇所の座標値を求め、特定箇所の座標値の変化により運動情報を取得する。
一例として、「アップル インコーポレイテッド」のARKit(登録商標)を利用することができる。本実施形態では、運動情報取得部215は、ARkitを利用して、撮影映像から認識した顔の特徴点を結んだ3D(3次元)画像を取得する。図3は、顔の特徴点を結んだ3D画像の一例を示す図である。この3D画像に対して任意に座標軸を設定することにより、各特徴点の座標値を求めることができる。
図4は、本実施形態の3D画像における座標軸を示す模式図である。図4に示すように、本実施形態では、鼻の奥側の或る点を基準点として、X軸、Y軸、および、Z軸で構成される3次元の座標軸が設定されている。基準点から顔の左右方向に延びる方向にX軸が設定されている。X軸においては、基準点から顔の左方に向かう方向を正の向きとしている。基準点から顔の上下方向に延びる方向にY軸が設定されている。Y軸においては、基準点から顔の上方に向かう方向を正の向きとしている。基準点から顔の前後方向に延びる方向にZ軸が設定されている。Z軸おいては、基準点から顔の前方に向かう方向を正の向きとしている。
図3には、頬の動きを示すグラフが顔の3D画像に重畳して示されている。図3に示すように、顔の3D画像において、左頬の代表点P1と右頬の代表点P2とが設定されている。左右の頬の代表点P1、P2は、顔の前方からの平面視において、Y軸を基準としてほぼ対称となる位置に設定されている。図3の左側のグラフは右頬のグラフ、図3の右側のグラフは左頬のグラフである。グラフの横軸は経過時間(単位ミリ秒)であり、縦軸は座標値である。各グラフには、X、Y、Zの各方向の座標値の時間変動が示されている。なお、図3においては、左右の比較を行いやすいように、X方向の座標値は絶対値である。
頬を膨らませたり萎めたりする運動指示が行われた場合、運動情報取得部215は、左右の頬の代表点P1、P2の時間変動を測定する。運動情報取得部215は、例えば、頬の運動指示を行う前の基準画像との比較により、どの程度頬を膨らませることができるか等の運動情報を取得することができる。左右の頬の運動量を測定することにより、左右の頬の動きの差を評価することもできる。
本実施形態では、運動情報取得部215は、口の運動情報として、口を開けた時の大きさ情報を取得可能に設けられる。図5および図6は、口を開けた時の大きさを測定する手法の一例を示す模式図である。図5および図6の説明にあたって、上下左右の表現は、被測定者を基準として表現する。
本実施形態では、図5に示すように、撮影映像から、唇の左右の端部と、上唇下端の中央部との座標値を取得し、角度αを求める。また、図5に示すように、撮影映像から、唇の左右の端部と、下唇上端の中央部との座標値を取得し、角度βを求める。また、図6に示すように、唇の左側の端部と、上唇下端の中央部から左側に所定距離ずれた位置と、下唇上端の中央部から左側に所定距離ずれた位置との座標値を取得し、角度γを求める。また、図6に示すように、唇の右側の端部と、上唇下端の中央部から右側に所定距離ずれた位置と、下唇上端の中央部から右側に所定距離ずれた位置との座標値を取得し、角度δを求める。
例えば、被測定者に対して口を最大限あける指示を行い、角度α、βについては、180°(口を閉じた状態)から最も小さくなる角度を測定値とする。角度γ、δについては、口を閉じた基準画像の角度を基準として最も大きくなる角度を測定値とする。なお、口の大きさは、例えば、唇の左右の端部間の距離や、上唇中央部の下端と下唇中央部の上端との距離によって求められてよい。口の大きさは、口を開ける指示が行われた時だけでなく、例えば、「い」を発音する際の口形状とする指示が行われた時等にも測定されてよい。また、座標点群間の距離から、顔の大きさ(上下や左右の長さ)や、顔の各部位の大きさ(例えば、鼻の幅、目頭から目尻までの距離等)を推測することができる。そして、例えば顔の大きさや口の大きさ等は人によって異なる。このために、例えば口を開ける運動等の運動量の評価に際しては、顔の大きさ等の推定値を考慮して評価が行われることが好ましい。すなわち、運動情報取得部215は、必要に応じて、撮影映像から推定される顔の大きさや、顔の或る部位の大きさを考慮して、顔の特定部位の運動情報を取得することが好ましい。その他、運動情報取得部215は、例えば座標値の取得により、口を閉じているか否か、口を尖らせているか否か、口角の上がり具合等の運動情報についても取得することできる。口が閉じているか否かや、口を尖らせているか否かについては、ARKitの機能を利用して取得してもよい。
本実施形態では、運動情報取得部215は、運動指示を行った後に得られる映像の、顔の特定部位(運動指示により運動が行われる部位)と、他の部位との位置関係の変化によっても、顔の特定部位の運動情報を得ることができる。例えば、運動情報取得部215は、運動指示によって動かされる舌と、口との位置関係の変化によって舌の運動情報を得る。運動情報取得部215は、例えば、舌で口角に触れることができるか否かを運動情報として得る。なお、舌と口角との関係は、顔の3D画像の座標値情報を利用して判断されても勿論よい。
本実施形態では、言語聴覚士や歯科衛生士等の専門家が実際に立ち会わなくても顔の特定部位の運動を行わせて、運動の結果を取得することができる。このために、言語聴覚士等の負担を軽減することができる。
発声運動情報取得部216は、発声運動中に集音された音声に基づき発声運動情報を取得する。発声運動は、運動指示により行われた発声運動である。被測定者が発声運動により発した音声は、集音装置5によって集音される。発声運動情報取得部216は、集音装置5から音声取得部212を介して得られた音声データの解析を行い、発声運動情報を取得する。音声データの解析には、公知の技術が利用される。なお、発声運動情報取得部216は設けられなくてもよい。
発声運動情報には、例えば、声の大きさ(音量)、声の時間的な長さ、発話精度、所定時間における所定文字(例えば「パ」等)の発声回数、所定文字を所定回数発するために要する時間、所定文字の発声間隔等が含まれてよい。
結果表示処理部217は、顔の特定部位の運動情報の取得結果を表示画面に表示させる処理を行う。結果表示処理部217は、運動情報取得部215で取得された運動情報をそのまま、或いは、統計処理等の処理を行って、表示画面に表示させる。運動情報の処理例として、運動情報を所定のテーブルに纏めたり、グラフ化したりすることが挙げられる。運動情報を処理して表示させる場合、例えば、今回の結果と以前の結果とを比較できるように処理してもよい。結果表示処理部217(制御部21)からの指令により、表示装置4は運動情報の取得結果を画面表示する。
顔の特定部位の運動情報の取得結果が画面表示されることにより、被測定者は、例えば自身のリハビリテーションの成果等を確認することができる。この結果、リハビリテーション等の意欲が高まることが期待できる。なお、本実施形態では、結果表示処理部217は、発声運動情報の取得結果を表示画面に表示させる処理も行う。また、結果表示処理部217は設けられなくてもよい。
送信処理部218は、顔の特定部位の運動情報を自装置2の外部に送信するための処理を行う。送信処理部218は、運動情報取得部215で取得された運動情報をそのまま、或いは、所定の処理を行って外部に送信させてよい。送信処理は、送信処理部218からの指令により通信装置6によって行われる。なお、本実施形態では、送信処理部218は、発声運動の運動情報についても、そのまま、或いは、所定の処理を行って外部に送信する処理を行う。
例えば言語聴覚士や歯科衛生士等は、送信処理により、情報処理装置2から離れた位置に居ても、患者等の運動情報を取得することができる。送信処理が行われることにより、送信された運動情報を電子カルテに自動的に追加することもできる。また、通信装置6を用いてプリンタ装置に運動情報を送信することにより、運動情報を印刷することもできる。なお、送信処理部218は設けられなくてもよい。
(2−2.情報処理装置の動作例)
図7は、本発明の実施形態に係る情報処理装置2の動作例を示すフローチャートである。本例では、情報処理装置2は、顔の特定部位の運動情報と、発声運動の運動情報とを取得する。
ステップS1では、制御部21は、準備動作部(不図示)として動作して、運動情報を取得するために必要となる準備動作を行う。具体的には、制御部21は、運動前の顔の状態を撮影装置3で撮影するために、撮影に関する指示を画面表示させる。制御部21は、撮影指示後に撮影された被測定者(運動情報を測定される者)の顔の映像から基準画像を記憶部22に記憶する。基準画像は、動画像でも静止画像でもよい。記憶部22に動画像が記憶される場合には、或る時点の座標値を抽出して使用すればよい。基準画像は、顔の特定部位の運動情報を求めるために適宜使用される。制御部21は、準備動作の終了により、次のステップS2に処理を進める。
ステップS2では、制御部21は、指示処理部213として動作して、運動指示を表示させる処理を行う。運動指示は、一種類の運動指示である。制御部21は、運動指示を表示させる処理の終了により、次のステップS3に処理を進める。
ステップS3では、制御部21は、映像表示処理部214として動作して、運動指示と合わせて被測定者の顔の撮影映像を表示させる処理を行う。制御部21は、被測定者の顔の撮影映像を表示させる処理の終了により、次のステップS4に処理を進める。
ステップS4では、制御部21は、運動情報取得部215又は発声運動情報取得部216として機能して、顔の特定部位の運動情報、或いは、発声運動の運動情報を取得する。制御部21は、例えば、所定期間の撮影映像、或いは、音声データを取得して、顔の特定部位の運動情報、或いは、発声運動の運動情報を取得する。制御部21は、顔の特定部位の運動情報、或いは、発声運動の運動情報を取得すると、次のステップS5に処理を進める。
ステップS5では、制御部21は、指示処理部213として動作して、次の運動指示が存在するか否かを確認する。次の運動指示が存在する場合には(ステップS5でYes)、ステップS2に戻って、ステップS2以降の処理が繰り返される。次の運動指示が存在しない場合には(ステップS5でNo)、次のステップS6に処理を進める。
ステップS6では、制御部21は、結果表示処理部217として機能して、運動情報(顔の特定部位の運動情報と発声運動の運動情報のうちの少なくとも一方)の取得結果を表示画面に表示させる処理を行う。取得結果を表示させる処理の終了により、次のステップS7に処理を進める。
ステップS7では、制御部21は、送信処理部218として機能して、運動情報(顔の特定部位の運動情報と発声運動の運動情報のうちの少なくとも一方)の取得結果を通信装置6に送信させる処理を行う。取得結果は、例えば、インターネット100を介してサーバ101に送信される。取得結果を送信させる処理の終了により、一連の処理が終了する。
本実施形態によれば、顔の特定部位の運動情報や、発声運動の運動情報を、例えば言語聴覚士、歯科衛生士、介護福祉士等の専門家の作業負担を軽減して取得することが可能である。
<3.情報処理システムの具体的な使用例>
次に、情報処理システム1の具体的な利用例を説明する。ここでは、情報処理システム1は、タブレット端末である。本例では、誤嚥の予防やリハビリテーション等を目的に行われる嚥下体操を行いながら、顔の特定部位の運動情報および発声運動の運動情報が取得される。タブレット端末1は、例えば、介護施設等に三脚に固定された状態で配置される。本例では、タブレット端末1は、運動情報の測定が行われる被測定者一人に対して一台使用される。以下に示す嚥下体操は一例にすぎず、体操内容は適宜変更されてよい。
図8は、嚥下体操を開始する際における、タブレット端末1の準備動作について説明するための模式図である。図8に示すように、嚥下体操を開始するにあたって、タブレット端末1は、被測定者200に顔の位置を所定の枠内に配置することを要求する。この際、撮影装置3による撮影映像が表示画面に表示される。タブレット端末1の表示画面は、表示装置4の表示画面と同じである。撮影装置3によって撮影される顔が所定の枠内に配置されることにより、運動情報を適切に取得することが可能になる。タブレット端末1は、所定の枠内に顔が配置されると、嚥下体操を行う前の顔の撮影結果から基準画像を抽出する。
なお、タブレット端末1は、上記準備動作を行う前に、嚥下体操の手順を説明する映像を再生できることが好ましい。手順の説明映像を再生するか否かは選択できることが好ましい。
図9A〜図9Nは、タブレット端末1において、嚥下体操に関する指示を行うために表示される画面を例示する模式図である。なお、タブレット端末1の画面は、表示装置4の表示画面と同じである。図9A〜図9Nは、時系列順に並んでいる。
図9Aは、嚥下体操の開始を表示する表示画面である。嚥下体操開始を知らせる画面表示により、被測定者200は、嚥下体操の開始を認識する。なお、タブレット端末1は、嚥下体操が開始されると、被測定者200が体操を行い易いように音楽を流してもよい。
図9Bは、嚥下体操の中の一つの運動として、深呼吸を行うことを指示する画面を示す。当該運動指示は、指示処理部213によって行われる。深呼吸を行うことの画面による指示により、被測定者200は深呼吸を行う。
図10は、タブレット端末1の動作例を説明するための図である。本例では、図10に示すように、図9Bの運動指示の画面表示の後に、運動指示と合わせて被測定者200の撮影映像を画面表示する。撮影映像の画面表示に関する処理は、映像表示処理部214によって行われる。撮影映像の表示は、図9C〜図9Mの運動指示画面の後に同様に行われる。
図9Cは、嚥下体操の中の一つの運動として、首を左右に回す運動を行うことを指示する画面を示す。深呼吸を行うことの画面指示のあと、所定時間の経過後に、首を左右に回す運動を行う指示が画面に表示される。当該運動指示は、指示処理部213によって行われる。首を左右に回す運動の指示により、被測定者200は左周り、および、右回りに首を順番に回す。なお、情報処理装置2は、首を回す運動時に撮影される映像における顔の特定箇所の座標の変動により、首の動きに関する運動量を求めてもよい。首の動きに関する運動量は、基準画像との比較により求められてよい。
図9Dは、嚥下体操の中の一つの運動として、首を左右に倒す運動を行うことを指示する画面を示す。首を回す運動を行うことの画面指示のあと、所定時間の経過後に、首を左右に倒す運動を行う指示が画面に表示される。当該運動指示は、指示処理部213によって行われる。首を左右に倒す運動の指示により、被測定者200は首を左右に交互に倒す。なお、情報処理装置2は、首を左右に交互に倒す運動時に撮影される映像における顔の特定箇所の座標の変動により、首を傾けることができる角度を求めてもよい。首を傾けることができる角度は、基準画像を基準として求められてよい。
図9Eは、嚥下体操の中の一つの運動として、肩を上下させる運動を行うことを指示する画面を示す。首を左右に倒す運動を行うことの画面指示のあと、所定時間の経過後に、肩を上下させる運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。肩を上下させる運動の指示により、被測定者200は肩を上下させる。
図9Fは、嚥下体操の中の一つの運動として、背伸び運動を行うことを指示する画面を示す。肩を上下させる運動を行うことの画面指示のあと、所定時間の経過後に、背伸び運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。背伸び運動の指示により、被測定者200は両手を上げ、軽く背伸びを行う。
図9Gは、嚥下体操の中の一つの運動として、口を大きく開ける運動を行うことを指示する画面を示す。背伸び運動を行うことの画面指示のあと、所定時間の経過後に、口を大きく開ける運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。口を大きく開ける運動は、顔の特定部位の運動に該当する。換言すると、指示処理部213は、所定の体操(本例では嚥下体操)に関する指示を表示画面に表示させる処理の一環として、顔の特定部位の運動を行うことを指示する運動指示を表示画面に表示させる。指示処理部213は、顔の特定部位の運動を含む所定の体操(本例では嚥下体操)に関する指示を表示画面に表示させる処理を行う。口を大きく開ける運動の指示により、被測定者200は口を大きく開ける。
本例では、被測定者200が口を大きく開けた時の撮影映像により、運動情報取得部215は、口の所定位置の角度を求める。詳細には、運動情報取得部215は、図5に示す角度α、β、および、図6に示す角度γ、δを求める。求めた結果は、一旦、記憶部22に記憶される。
図9Hは、嚥下体操の中の一つの運動として、口を「い」を発音する際の形状とする運動を行うことを指示する画面を示す。口を大きく開ける運動を行うことの画面指示のあと、所定時間の経過後に、口を「い」を発音する際の形状とする運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。なお、当該運動指示は、顔の特定部位の運動を行うことを指示する運動指示である。口を「い」を発音する際の形状とする運動の指示により、被測定者200は口の形状を「い」を発音する際の形状とする。
本例では、被測定者200が口を「い」を発音する際の形状とした時の撮影映像により、運動情報取得部215は、口角の動きを求める。本例では、運動情報取得部215は、基準画像との比較により、口角の座標変動を求めて、口角の動きを評価する。求めた結果は、一旦、記憶部22に記憶される。
図9Iは、嚥下体操の中の一つの運動として、頬の運動を行うことを指示する画面を示す。口を「い」を発音する際の形状とする運動を行うことの画面指示のあと、所定時間の経過後に、頬の運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。なお、当該運動指示は、顔の特定部位の運動を行うことを指示する運動指示である。頬の運動の指示により、被測定者200は、頬を膨らませることと、頬をすぼめることとを交互に行う。
本例では、被測定者200が頬を膨らませたり、すぼめたりした時の撮影映像により、運動情報取得部215は、左右の頬のそれぞれについて、どの程度頬を膨らませることができるかを基準画像との比較により求める。求めた結果は、一旦、記憶部22に記憶される。
図9Jは、嚥下体操の中の一つの運動として、舌の運動を行うことを指示する画面を示す。頬の運動を行うことの画面指示のあと、所定時間の経過後に、舌の運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。なお、当該運動指示は、顔の特定部位の運動を行うことを指示する運動指示である。舌の運動の指示により、被測定者200は、舌で左の口角に触れることと、舌で右の口角に触れることとを交互に行う。
本例では、被測定者200が舌の運動を行った時の撮影映像により、運動情報取得部215は、舌で左右の口角に触れることができる否かを評価する。舌で口角に触れるだけでなく、例えば、舌が口からどの程度出るか、舌で上唇に触れることができるか否か等を評価する構成としてもよい。評価結果は、一旦、記憶部22に記憶される。
図9Kは、嚥下体操の中の一つの運動として、所定の呼吸運動を行うことを指示する画面を示す。舌の運動を行うことの画面指示のあと、所定時間の経過後に、所定の呼吸運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。所定の呼吸運動の指示により、被測定者200は、息を強く吸って止め、3つ数えてゆっくり吐く動作を行う。
図9Lは、嚥下体操の中の一つの運動として、発声運動を行うことを指示する画面を示す。所定の呼吸運動を行うことの画面指示のあと、所定時間の経過後に、発声運動を行う指示が画面表示される。当該運動指示は、指示処理部213によって行われる。すなわち、所定の体操(本例では嚥下体操)の中に発声運動が含まれる。発声運動の指示により、被測定者200は、「パ」、「タ」、「カ」、「ラ」を順にゆっくり発音する。なお、「パ」、「タ」、「カ」、「ラ」に替えて、例えば、「ア」、「イ」、「ウ」、「エ」、「オ」を順にゆっくり発音してもらう指示としてもよい。また、例えば、歌を歌ってもらう指示としてもよい。
本例では、被測定者200が発声運動を行った時に取得した音声データにより、発声運動情報取得部216は、例えば、発話精度や声の音量を求める。発話精度は、指示した音(「パ」等)を正しく発声できているか否かを評価して求められ、指示した音を正しく発話できている割合が多いほど、発話精度が高くなる。求めた結果は、一旦、記憶部22に記憶される。
図9Mは、嚥下体操の中の一つの運動として、再度深呼吸を行うことを指示する画面を示す。当該運動指示は、指示処理部213によって行われる。深呼吸を行うことの画面による指示により、被測定者200は深呼吸を行う。
図9Nは、嚥下体操の終了を表示する表示画面である。嚥下体操終了を示すコメントが表示される表示画面により、被測定者200は、嚥下体操の終了を認識する。
本例では、タブレット端末1は、嚥下体操の終了後に、顔の特定部位の運動および発声運動の採点結果を画面表示する。当該処理は、結果表示処理部217によって行われる。図11は、嚥下体操後に表示される採点結果の画面の一例を示す模式図である。図11に示す例では、採点結果がレーダチャートで示されている。採点項目は、「口の開閉」、「口角の動き」、「舌の動き」、「発話」、および、「頬の動き」の5項目であり、各項目は5段階で評価される。結果表示処理部217は、嚥下体操中に集められた運動情報(発声運動情報を含む)と、予め記憶部22に記憶された採点基準情報とに基づきレーダチャートを作成する。図11に示す例では、前回の嚥下体操の際の採点結果も示される構成になっている。前回の採点結果に替えて、これまでの測定結果の平均値等が表示される構成等としてもよい。また、各部位の動きの詳細な運動情報(例えば頬の動きの座標変動を示すグラフ等)が表示されるようにしてもよい。また、運動の採点結果は、タブレット端末1の利用者の選択により、適宜、切り替えて見られるようにしてもよい。また、各部位の評価結果だけでなく、体操全体の総合評価(点数、文字等)が表示されるようにしてもよい。これにより、被測定者200の体操意欲を向上することができる。
また、本例では、嚥下体操の完了後に、嚥下体操中に取得された運動情報(発声運動情報を含む)をサーバ101に記憶させる。当該処理は、送信処理部218によって行われる。例えば言語聴覚士や歯科衛生士等は、サーバ101に記憶された情報を、例えばパーソナルコンピュータや携帯端末(例えばタブレット端末やスマートフォン)等によって確認することができる。
本例のタブレット端末1によれば、例えば言語聴覚士や歯科衛生士等の専門家が居ない場所で、被介護者や患者等に顔の特定部位の運動や発声運動を行ってもらい、運動情報を取得することができる。このために、言語聴覚士や歯科衛生士等の作業負担を軽減することができる。また、本例のタブレット端末1によれば、被介護者や患者等に所定の体操プログラムを行ってもらいながら顔の特定部位や発声運動の運動情報を取得できるために、被介護者等が抵抗なく測定や評価のための運動に取り組むことができる。また、本例のタブレット端末1によれば、嚥下体操の後に評価結果が画面表示されるために、誤嚥の予防やリハビリテーションのための運動を行う意欲を被介護者等に維持させることができる。
<4.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
以上においては、運動指示が嚥下体操の指示の一環として行われる構成としたが、これは例示にすぎない。例えば、運動指示は、美容体操の指示の一環として行われる構成等であってよい。
また、以上に示したタブレット端末1は、一人用と、複数人用とに切り替えることができる構成としてよい。一人用の場合には、上述のように顔の特定部位の運動情報や発声運動の運動情報を取得できるように動作を行う。一方、複数人用の場合には、例えば、所定の体操(例えば嚥下体操)の指示を再生する再生装置として動作する。タブレット端末1は、大画面を有するディスプレイと接続され、ディスプレイを介して嚥下体操の動きを指示する映像を表示する。
また、上述のように、顔の特定部位には瞼が含まれてよい。この場合、情報処理装置2は、瞼の運動情報として、まばたきの回数を取得する構成としてよい。運動情報取得部215は、瞼の運動を撮影した撮影映像に基づき、まばたきの回数を計測する。まばたきの回数は、例えば撮影映像における瞼の特定箇所の座標値の変動により計測することができる。なお、ARKitの機能により、目(瞼)が閉じられているか否かや、目を大きく見開いた状態か否かは判定することができる。これらの判定を前提として、まばたきを検出する構成としてもよい。
例えば、所定の体操プログラムの中に、まばたき計測用の運動(体操)が含まれる構成としてもよいし、所定の体操が行われている間中、まばたきの計測が行われる構成としてもよい。前者の場合には、指示処理部213によって、まばたきの運動を指示する運動指示が表示画面に表示される。まばたきの回数の計測結果を利用することにより、例えば仮面様顔貌の程度(具合)を推測することができる。すなわち、情報処理システム1および情報処理装置2は、例えば、認知症の1つであるパーキンソン病に特徴的な症候である仮面様顔貌の程度を測るのに有効である。また、情報処理システム1および情報処理装置2は、顔に表情が表れにくくなる精神疾患等の症状の可視化にも有効である。
また、以上においては、情報処理装置2(運動情報取得部215)は、顔の特定部位の運動情報を座標値の変動により求める構成を示したが、これは例示に過ぎない。例えば、顔の特定部位の運動情報は、撮影映像における顔の特定部位の表面積の変動により求められる構成としてもよい。例えば、頬を膨らませたり萎めたりする運動を撮影した撮影映像において、頬の膨らみ具合を表面積の変動により求める構成としてもよい。
図12は、顔の特定部位の表面積を求める方法について説明するための図である。図12では、一例として特定部位は頬である。図12に示すように、特徴点を結んで構成される最小単位図形(本例では三角形)を集めて錘状となる領域Aを頬に設定する。本例では、6つの隣接する三角形を集めて構成される領域が領域Aとされている。領域Aを構成する複数(本例では6つ)の三角形の面積の総和により領域Aの表面積が求められる。頬の運動に伴って変動する表面積情報により頬の運動情報を得ることができる。なお、表面積は、図12に領域Bで示すように、上述の最小単位図形とは異なる単位の図形の集まりから求められてもよい。
また、以上においては、タブレット端末1において、嚥下体操が選択されると、嚥下体操に含まれる全ての運動(体操)が行われるように指示が出される構成としたが、これは例示にすぎない。例えば、嚥下体操が選択された後に、利用者が、嚥下体操に含まれる個々の運動(例えば口の運動)を個別に選択したり、嚥下体操に含まれる全ての運動が省略されることなく行われるモードを選択したりできるようにしてよい。この場合、利用者の選択に応じた体操指示が行われることになる。被測定者200は、例えば、口の運動や頬の運動等の特定の運動のみを行うことも可能になる。
本発明は、例えば嚥下障害の予防やリハビリテーション等を目的として利用することができる。また、本発明は、顔の美容のための体操を行うことを目的として利用することができる。また、本発明は、大学等の研究機関において、顔の特定部位の運動情報と、病気や障害等との関係性を調べるための情報収集ツールとして利用することができる。
1・・・情報処理システム(タブレット端末)
2・・・情報処理装置
3・・・撮影装置
4・・・表示装置
21・・・制御部(コンピュータ)
213・・・指示処理部
214・・・映像表示処理部
215・・・運動情報取得部
216・・・発声運動情報取得部
217・・・結果表示処理部
218・・・送信処理部
221・・・プログラム

Claims (11)

  1. 顔の特定部位の運動情報を取得する情報処理装置であって、
    前記特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う指示処理部と、
    前記運動指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得部と、
    を備える、情報処理装置。
  2. 前記運動指示には、複数種類の運動指示が含まれ、
    前記指示処理部は、前記複数種類の運動指示を所定の順番で時間間隔をあけて表示させる、請求項1に記載の情報処理装置。
  3. 前記運動指示と合わせて前記撮影映像を前記表示画面に表示させる処理を行う映像表示処理部を更に備える、請求項1又は2に記載の情報処理装置。
  4. 前記指示処理部は、所定の体操に関する指示を前記表示画面に表示させる処理の一環として前記運動指示を前記表示画面に表示させる、請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記所定の体操には発声運動が含まれ、
    前記運動指示には、前記発声運動を行うことを指示する運動指示が含まれ、
    前記発声運動中に集音された音声に基づき発声運動情報を取得する発声運動情報取得部を更に備える、請求項4に記載の情報処理装置。
  6. 前記運動情報の取得結果を前記表示画面に表示させる処理を行う結果表示処理部を更に備える、請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記運動情報を自装置の外部に送信するための処理を行う送信処理部を更に備える、請求項1から6のいずれか1項に記載の情報処理装置。
  8. 前記特定部位には、口、頬、および、舌のうちの少なくともいずれか1つが含まれる、請求項1から7のいずれか1項に記載の情報処理装置。
  9. 請求項1から8のいずれか1項に記載の情報処理装置と、
    前記表示画面を有する表示装置と、
    前記撮影映像を撮影する撮影装置と、
    を備える、情報処理システム。
  10. 情報処理装置に含まれるコンピュータによって実行されるプログラムであって、
    前記コンピュータを、
    顔の特定部位の運動を行うことを指示する運動指示を表示画面に表示させる処理を行う指示処理手段と、
    前記運動指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得手段と、
    として機能させる、プログラム。
  11. 情報処理装置に含まれるコンピュータによって実行されるプログラムであって、
    前記コンピュータを、
    顔の特定部位の運動を含む所定の体操に関する指示を表示画面に表示させる処理を行う指示処理手段と、
    前記指示により行われる前記特定部位の運動を撮影した撮影映像に基づき前記運動情報を取得する運動情報取得手段と、
    として機能させる、プログラム。
JP2018216664A 2018-11-19 2018-11-19 情報処理装置、情報処理システム、および、プログラム Pending JP2020081088A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216664A JP2020081088A (ja) 2018-11-19 2018-11-19 情報処理装置、情報処理システム、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216664A JP2020081088A (ja) 2018-11-19 2018-11-19 情報処理装置、情報処理システム、および、プログラム

Publications (1)

Publication Number Publication Date
JP2020081088A true JP2020081088A (ja) 2020-06-04

Family

ID=70904669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018216664A Pending JP2020081088A (ja) 2018-11-19 2018-11-19 情報処理装置、情報処理システム、および、プログラム

Country Status (1)

Country Link
JP (1) JP2020081088A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463923B2 (ja) 2020-09-15 2024-04-09 コニカミノルタ株式会社 X線動態画像表示装置、プログラム、x線動態画像表示方法及びx線動態画像表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463923B2 (ja) 2020-09-15 2024-04-09 コニカミノルタ株式会社 X線動態画像表示装置、プログラム、x線動態画像表示方法及びx線動態画像表示システム

Similar Documents

Publication Publication Date Title
JP6775757B1 (ja) 機能改善支援システムおよび機能改善支援装置
JP2021026768A (ja) 機能改善支援システム、機能改善支援装置および端末装置
JP7146401B2 (ja) ユーザにフィードバックを提供する少なくとも1つの加速度計を含む口腔衛生デバイスを用いてユーザのブラッシング動作特性を抽出する方法及びシステム
JP6045139B2 (ja) 映像生成装置、映像生成方法及びプログラム
RU2719839C2 (ru) Способы и системы для извлечения характеристик движения пользователя с использованием датчика холла для предоставления пользователю обратной связи
JP6181373B2 (ja) 医用情報処理装置及びプログラム
JP6124308B2 (ja) 動作評価装置及びそのプログラム
US20150004581A1 (en) Interactive physical therapy
CN104274183A (zh) 动作信息处理装置
Shao et al. You are doing great! only one rep left: an affect-aware social robot for exercising
JP7373788B2 (ja) リハビリ支援装置、リハビリ支援システム及びリハビリ支援方法
WO2018168353A1 (ja) マッサージ機
JP2017060572A (ja) 機能訓練装置
KR102388337B1 (ko) 턱관절 질환 개선 서비스용 어플리케이션의 서비스 제공방법
JP2020081088A (ja) 情報処理装置、情報処理システム、および、プログラム
WO2021039857A1 (ja) 映像生成装置
JP2019024579A (ja) リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
JP2015138085A (ja) 訓練システム及び訓練方法
KR101647883B1 (ko) 액션 트레머 진단을 위한 손 떨림 측정 장치 및 방법
JP2020035122A (ja) 顔運動量測定装置
Fitzgerald et al. Usability evaluation of e-motion: a virtual rehabilitation system designed to demonstrate, instruct and monitor a therapeutic exercise programme
KR101945338B1 (ko) 체력 측정 진단에 대한 체력 개선 시스템
WO2021100815A1 (ja) 運動データ収集方法、運動データ解析システム、運動診断支援システム、及び、解析プログラム
TWI699669B (zh) 混合實境式動作功能評估系統
JP2022126288A (ja) 咀嚼改善提案システム、咀嚼改善提案プログラム、及び咀嚼改善提案方法