JP7216084B2 - 情報処理装置、プログラム、及び、センシングデバイス - Google Patents
情報処理装置、プログラム、及び、センシングデバイス Download PDFInfo
- Publication number
- JP7216084B2 JP7216084B2 JP2020521783A JP2020521783A JP7216084B2 JP 7216084 B2 JP7216084 B2 JP 7216084B2 JP 2020521783 A JP2020521783 A JP 2020521783A JP 2020521783 A JP2020521783 A JP 2020521783A JP 7216084 B2 JP7216084 B2 JP 7216084B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- information processing
- vibration
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
ユーザの両耳に装着され、且つ、前記ユーザの生体組織の振動を検出する一対のセンサから、前記振動に関する振動情報を取得する手段を備え、
前記振動情報に基づいて、前記ユーザの生体組織の状態を判定する手段を備え、
前記判定の結果を記憶装置に記憶する手段を備える、
情報処理装置である。
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。
図1~図2に示すように、情報処理システム1は、センシングデバイス10と、サーバ30とを備える。
センシングデバイス10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
・ユーザUの両耳の内側に装着可能なインナーイヤー型デバイス(つまり、イヤフォン型デバイス)
・ユーザUの両耳の外側に装着可能なアウターイヤー型デバイス(つまり、ヘッドフォン型デバイス)
・インナーイヤー型デバイス、又は、アウターイヤー型デバイス、及び、コンピュータ(一例として、スマートフォン、タブレット端末、又は、パーソナルコンピュータ)の組合せ
図2を参照して、センシングデバイス10の構成について説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、及び、音声出力部17である。
図2を参照して、サーバ30の構成について説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
ユーザUの両耳に装着された一対のセンサ15は、ユーザUの生体組織の振動を検出する。
センシングデバイス10は、一対のセンサ15から検出結果(振動)に関する振動情報を取得し、且つ、振動情報に基づいて、ユーザUの生体組織の状態を判定するように構成される。
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
本実施形態のユーザ情報データベースについて説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「認証情報」フィールドと、「画像」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
・パスワード
・指紋のパターンに関する情報
・顔の特徴量に関する情報
・ワンタイム認証コード
本実施形態のセンシングログ情報データベースについて説明する。図5は、本実施形態のセンシングログ情報データベースのデータ構造を示す図である。
センシングログ情報データベースは、「ログID」フィールドと、「判定日時」フィールドと、「波形ファイル」フィールドと、「振幅」フィールドと、「位置」フィールドと、「方向」フィールドと、「速度」フィールドと、「状態」フィールドと、を含む。各フィールドは、互いに関連付けられている。
センシングログ情報データベースは、ユーザIDに関連付けられている。
本実施形態のレコメンド情報マスタデータベースについて説明する。図6は、本実施形態のレコメンド情報マスタデータベースのデータ構造を示す図である。
レコメンド情報マスタデータベースは、「レコメンドID」フィールドと、「状態」フィールドと、「レコメンド情報」フィールドと、を含む。
・生体組織のケアの方法
・ケアアイテムの使用方法
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のシーケンス図である。図8~図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7のセンシングの詳細な処理のフローチャートである。
具体的には、プロセッサ12は、画面P100(図8)をディスプレイに表示する。
フィールドオブジェクトF100は、ログイン情報(例えば、ユーザID及びパスワード)のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB100は、ログインリクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。
具体的には、ユーザがフィールドオブジェクトF100にログイン情報を入力し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、以下の情報を含む。
・フィールドオブジェクトF100に入力されたユーザID
・フィールドオブジェクトF100に入力されたパスワード
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたパスワードを特定する。
プロセッサ32は、特定したパスワードと、ログインリクエストデータに含まれるパスワードと、を照合する。
2つのパスワードが一致する場合、ユーザ認証に成功する。
2つのパスワードが一致しない場合、ユーザ認証に失敗する。
具体的には、ステップS300でユーザ認証に成功した場合、プロセッサ32は、ログインレスポンスデータをセンシングデバイス10に送信する。
具体的には、プロセッサ12は、画面P101(図8)をディスプレイに表示する。
フィールドオブジェクトF101は、再生対象となる音楽ファイルを指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB101は、フィールドオブジェクトF101で受け付けられたユーザ指示によって指定される音楽ファイルの再生を開始するためのユーザ指示を受け付けるオブジェクトである。
プロセッサ12は、生成した音声信号を音声出力部17に送信する。
一対の音声出力部17は、プロセッサ12から送信された音声信号を出力する。
これにより、ユーザは、フィールドオブジェクトF101に指定した音楽ファイルに対応する音楽を聴くことができる。
具体的には、ステップS103は、図10のフローチャートに従って実行される。
具体的には、プロセッサ12は、画面P102(図8)をディスプレイに表示する。
画面P102には、ユーザUの顔の特定の部位(例えば、鼻、眉毛、及び、耳たぶ)を順番に触れることをユーザUに促すためのメッセージが表示される。
波形出力部16は、プロセッサ12から与えられたキャリブレーション制御信号に従い、所定のキャリブレーション周波数で振動素子を振動させる。振動素子が振動すると、センシングデバイス10を装着したユーザUの肌に、所定の波形を有する振動(以下「キャリブレーション振動」という)が加えられる。
一対のセンサ15は、ユーザUの肌を伝搬した振動(以下「キャリブレーション用伝搬振動」という)を検出し、且つ、キャリブレーション用伝搬振動に応じた電気信号を生成する。
プロセッサ12は、一対のセンサ15によって生成された電気信号に基づいて、キャリブレーション用伝搬振動の波形を生成する。
プロセッサ12は、キャリブレーション波形と、キャリブレーション用伝搬振動の波形と、を比較することにより、検出振動の歪を計算する。この歪は、キャリブレーション振動がユーザUの肌を伝搬する間に、ユーザUの身体特性(例えば、顔の大きさ)及びセンシングデバイス10の装着位置の少なくとも1つに起因して発生する。
プロセッサ12は、計算した歪に応じた動作パラメータを波形出力部16に与える。これにより、ユーザUの身体特性及びセンシングデバイス10の装着位置の少なくとも1つに応じて、波形出力部16の動作に関する動作パラメータが補正される。
具体的には、プロセッサ12は、画面P103(図8)をディスプレイに表示する。
画面P103には、ユーザUの所望の部位(例えば、ユーザUが気になっている部位)に触れることをユーザUに促すためのメッセージが表示される。
所定時間の測定(S1031)が終了すると(S1032-YES)、センシングデバイス10は、検出結果の生成(S1033)を実行する。
具体的には、プロセッサ12は、一対のセンサ15によって生成された電気信号に基づいて、センシング用伝搬振動の波形に関する波形データを生成する。
プロセッサ12は、波形データに基づいて、振動情報を生成する。振動情報は、例えば、以下の少なくとも1つを含む
・振動周波数
・センシング用伝搬振動の振幅(一例として、振幅の平均値、左右のセンサ15によって取得された振幅の差)
・左右のセンサ15によって取得された波形データの位相差
・接触部位
・接触部位の変位方向
・接触部位の変位速度
具体的には、プロセッサ12は、画面P104(図9)をディスプレイに表示する。
操作オブジェクトB104は、判定リクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。
判定リクエストデータは、以下の情報を含む。
・ステップS1033で生成された波形データ
・ステップS1033で特定された部位に関する情報
・ステップS1033で計算された振幅の平均値
・ステップS1033で計算された方向及び速度
具体的には、記憶装置31には、状態判定モデルが記憶されている。
状態判定モデルは、センシング用伝搬振動の波形に基づいて生体組織(例えば、肌又は髪)の状態を判定するためのモデルである。状態判定モデルの入力及び出力は、以下のとおりである。
・入力:波形データ
・出力:生体組織の状態
プロセッサ32は、判定リクエストデータに含まれる波形データを状態判定モデルに入力することにより、ユーザUの生体組織の状態を判定する。
具体的には、プロセッサ32は、レコメンド情報マスタデータベース(図6)を参照して、生体組織の状態の判定結果(一例として、凹凸及びケアレベルの組合せ)に関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「レコメンド情報」フィールドのレコメンド情報(つまり、アドバイス及び推奨アイテム)を特定する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDに関連付けられたセンシングログ情報データベース(図5)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ログID」フィールドには、新規のログIDが格納される。
・「判定日時」フィールドには、ステップS302の実行日時に関する情報が格納される。
・「波形ファイル」フィールドには、判定リクエストデータに含まれる波形データが格納される。
・「振幅」フィールドには、判定リクエストデータに含まれる振幅の平均値が格納される。
・「位置」フィールドには、判定リクエストデータに含まれる部位に関する情報が格納される。
・「方向」フィールドには、判定リクエストデータに含まれる方向に関する情報が格納される。
・「速度」フィールドには、判定リクエストデータに含まれる速度に関する情報が格納される。
・「状態」フィールドには、ステップS302で判定された生体組織の状態の判定結果に関する情報が格納される。
具体的には、プロセッサ32は、判定レスポンスデータをセンシングデバイス10に送信する。
・ステップS304で「状態」フィールドに記憶された生体組織の状態の判定結果に関する情報
・ステップS302で特定されたレコードの「レコメンド情報」フィールド(つまり、「アドバイス」フィールド及び「推奨アイテム」フィールド)のレコメンド情報
この場合、判定レスポンスデータは、ステップS304で「状態」フィールドに記憶された生体組織の状態の判定結果に対応する音声データを含む。
表示オブジェクトA105aには、ステップS1033で特定された接触部位と、判定レスポンスデータに含まれる生体組織の状態の判定結果に関する情報と、が表示される。
表示オブジェクトA105bには、判定レスポンスデータに含まれるレコメンド情報が表示される。
この場合、ユーザUは、視覚によって、自身の生体組織の状態を認識することができる。
この場合、ユーザUは、聴覚によって、自身の生体組織の状態を認識することができる。
本実施形態の変形例について説明する。
変形例1について説明する。変形例1は、センシング用伝搬振動の波形に基づいてユーザUの筋肉組織の状態を判定する例である。
具体的には、記憶装置31には、表情判定モデルが記憶されている。
状態判定モデルは、センシング用伝搬振動の波形に基づいて表情を判定するためのモデルである。表情判定モデルの入力及び出力は、以下のとおりである。
・入力:波形データ及び筋音データ
・出力:表情
プロセッサ32は、判定リクエストデータに含まれる波形データ及び筋音データを表情判定モデルに入力することにより、ユーザUの表情を判定する。
具体的には、プロセッサ32は、レコメンド情報マスタデータベース(図6)を参照して、表情の判定結果に関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「レコメンド情報」フィールドのレコメンド情報を特定する。
変形例2について説明する。変形例2は、生体組織の状態の時間変化に応じたレコメンド情報を提供する例である。
具体的には、記憶装置31には、レコメンド判定モデルが記憶されている。
レコメンド判定モデルは、生体組織の状態の時間変化に基づいてレコメンド情報を判定するためのモデルである。レコメンド判定モデルの入力及び出力は以下のとおりである。
・入力:生体組織の状態の時間変化
・出力:レコメンド情報
プロセッサ32は、特定したセンシングログ情報データベースにおいて、「判定日時」フィールドの情報が所定条件を満たすレコードを抽出する。所定条件は、例えば、ステップS303の実行日時を基準として、遡って所定期間内(一例として、1ヶ月以内)の日時を示すことである。
プロセッサ32は、抽出したレコードの「状態」フィールドの情報を参照して、生体組織の状態の時間変化を判定する。
プロセッサ32は、判定した生体組織の状態の時間変化をレコメンド判定モデルに入力することにより、レコメンド情報を決定する。
変形例3について説明する。変形例3は、ユーザUの生体組織の状態を判定するときに、他のユーザの判定結果を参照する例である。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザID(つまり、判定の対象となる対象ユーザUのユーザID)に関連付けられた「ユーザ属性」フィールドのユーザ属性情報(以下「対象ユーザ属性情報」という)を特定する。対象ユーザUは、「第1ユーザ」の一例である。対象ユーザ属性情報は、「第1ユーザ属性情報」の一例である。
プロセッサ32は、ユーザ情報データベースを参照して、特定した対象ユーザ属性情報に対応するユーザ情報(以下「参照ユーザ属性情報」という)に関連付けられたユーザID(以下「参照ユーザID」という)を特定する。「対象ユーザ属性情報に対応するユーザ属性情報」とは、以下の何れかの条件を満たすユーザ属性情報である。参照ユーザ属性情報は、「第2ユーザ属性情報」の一例である。
・対象ユーザ属性情報と同一のユーザ属性情報
・「性別」フィールドの情報が対象ユーザ属性情報と同一のユーザ属性情報
・「年齢」フィールドの情報と対象ユーザ情報の年齢との差が所定値以下であるユーザ属性情報
プロセッサ32は、判定リクエストデータに含まれる波形データと、参照ユーザの波形データと、を状態判定モデルに入力することにより、ユーザUの生体組織の状態を判定する。
本実施形態について小括する。
ユーザUの両耳に装着され、且つ、ユーザUの生体組織の振動を検出する一対のセンサ15から、振動に関する振動情報を取得する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
振動情報に基づいて、ユーザUの生体組織の状態を判定する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
前記判定の結果を記憶装置に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
判定の結果をユーザUに提示する手段(例えば、ステップS305の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
提示する手段は、判定の結果に対応する音声をユーザUに提示する、
情報処理装置(例えば、サーバ30)である。
判定が行われた時間に関する時間情報の少なくとも1つと、判定の結果と、を関連付けて記憶装置31に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
判定する手段は、記憶装置31に記憶された複数の判定の結果に基づいて、生体組織の状態の動的変化を判定する、
情報処理装置(例えば、サーバ30)である。
ユーザUの属性に関するユーザ属性情報と、判定の結果と、を関連付けて記憶装置31に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
一対のセンサ15を装着した第1ユーザから、第1ユーザの第1ユーザ属性情報を取得する手段を備え、
記憶装置31に記憶されたユーザ属性情報の中から、第1ユーザ属性情報に対応する少なくとも1つの第2ユーザ属性情報を特定する手段を備え、
判定する手段は、一対のセンサ15から取得した第1振動情報と、第2ユーザ属性情報に関連付けられた第2振動情報と、に基づいて、第1ユーザの生体組織の状態を判定する、
情報処理装置(例えば、サーバ30)である。
判定する手段は、ユーザUがユーザUの肌に触れた接触部位の位置を判定する、
情報処理装置(例えば、サーバ30)である。
判定する手段は、接触部位の位置の変位を判定する、
情報処理装置(例えば、サーバ30)である。
判定する手段は、ユーザUの肌の状態、髪の状態、及び、表情の少なくとも1つを判定する、
情報処理装置(例えば、サーバ30)である。
コンピュータ(例えば、プロセッサ32)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
上記の何れかに記載の情報処理装置(例えば、サーバ30)と接続可能であり、且つ、ユーザUの耳に装着可能なセンシングデバイス10であって、
ユーザUの両耳に接触し、且つ、ユーザUの生体組織の振動を検出する一対のセンサ15を備え
音声を出力する音声出力部17を備える、
センシングデバイス10である。
また、第12態様によれば、一対のセンサ15は、ユーザUの両耳に装着可能であるので、ユーザUの使用に対する心理障壁を低減することができる。その結果、ユーザUは、違和感を覚えることなくセンシングデバイス10を使用することができる。これは、ユーザUによるセンシングデバイス10の使用頻度(つまり、センシングログ情報の取得頻度)の増加を導く。
ユーザUの身体特性、及び、センシングデバイス10の装着位置の少なくとも1つに基づいて、キャリブレーションを実行する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を更に備える、
センシングデバイス10である。
10 センシングデバイス
11 記憶装置
12 プロセッサ
13 入出力インタフェース
14 通信インタフェース
15 センサ
16 波形出力部
17 音声出力部
30 サーバ
31 記憶装置
32 プロセッサ
33 入出力インタフェース
34 通信インタフェース
Claims (14)
- ユーザの両耳に装着され、且つ、前記ユーザの生体組織の振動を検出する一対のセンサから、前記振動に関する振動情報を取得する手段を備え、
前記振動情報に基づいて、前記ユーザが前記ユーザの肌に触れた接触部位の位置を判定する手段を備え、
前記判定の結果を記憶装置に記憶する手段を備える、
情報処理装置。 - 前記判定する手段は、前記ユーザの肌の状態、髪の状態、及び、表情の少なくとも1つを判定する、請求項1に記載の情報処理装置。
- ユーザの両耳に装着され、且つ、前記ユーザの生体組織の振動を検出する一対のセンサから、前記振動に関する振動情報を取得する手段を備え、
前記振動情報に基づいて、前記ユーザの肌の状態、髪の状態、及び、表情の少なくとも1つを判定する手段を備え、
前記判定の結果を記憶装置に記憶する手段を備える、
情報処理装置。 - 前記判定する手段は、前記ユーザが前記ユーザの肌に触れた接触部位の位置を判定する、請求項3に記載の情報処理装置。
- 前記判定する手段は、前記接触部位の位置の変位を判定する、
請求項1、請求項2、又は、請求項4に記載の情報処理装置。 - 前記判定の結果を前記ユーザに提示する手段を備える、
請求項1~請求項5の何れかに記載の情報処理装置。 - 前記提示する手段は、前記判定の結果に対応する音声を前記ユーザに提示する、
請求項6に記載の情報処理装置。 - 前記判定が行われた時間に関する時間情報の少なくとも1つと、前記判定の結果と、を関連付けて前記記憶装置に記憶する手段を備える、請求項1~請求項7の何れかに記載の情報処理装置。
- 前記判定する手段は、前記記憶装置に記憶された複数の判定の結果に基づいて、前記生体組織の状態の動的変化を判定する、請求項8に記載の情報処理装置。
- 前記ユーザの属性に関するユーザ属性情報と、前記判定の結果と、を関連付けて前記記憶装置に記憶する手段を備える、請求項1~請求項9の何れかに記載の情報処理装置。
- 前記一対のセンサを装着した第1ユーザから、第1ユーザの第1ユーザ属性情報を取得する手段を備え、
前記記憶装置に記憶されたユーザ属性情報の中から、前記第1ユーザ属性情報に対応する少なくとも1つの第2ユーザ属性情報を特定する手段を備え、
前記判定する手段は、前記一対のセンサから取得した第1振動情報と、前記第2ユーザ属性情報に関連付けられた第2振動情報と、に基づいて、前記第1ユーザの生体組織の状態を判定する、請求項10に記載の情報処理装置。 - コンピュータを、請求項1~請求項11の何れかに記載の情報処理装置の各手段として機能させるためのプログラム。
- 請求項1~請求項11の何れかに記載の情報処理装置と接続可能であり、且つ、前記ユーザの耳に装着可能なセンシングデバイスであって、
ユーザの両耳に接触し、且つ、ユーザの生体組織の振動を検出する一対のセンサを備え
音声を出力する音声出力部を備える、
センシングデバイス。 - 前記ユーザの身体特性、及び、前記センシングデバイスの装着位置の少なくとも1つに基づいて、キャリブレーションを実行する手段を更に備える、請求項13に記載のセンシングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101356 | 2018-05-28 | ||
JP2018101356 | 2018-05-28 | ||
PCT/JP2019/016427 WO2019230234A1 (ja) | 2018-05-28 | 2019-04-17 | 情報処理装置、プログラム、及び、センシングデバイス |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019230234A1 JPWO2019230234A1 (ja) | 2021-07-01 |
JP7216084B2 true JP7216084B2 (ja) | 2023-01-31 |
Family
ID=68698869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020521783A Active JP7216084B2 (ja) | 2018-05-28 | 2019-04-17 | 情報処理装置、プログラム、及び、センシングデバイス |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7216084B2 (ja) |
TW (1) | TW202010468A (ja) |
WO (1) | WO2019230234A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168884A (ja) | 2003-12-12 | 2005-06-30 | Olympus Corp | 呼吸検査装置 |
JP2010022572A (ja) | 2008-07-18 | 2010-02-04 | Aloka Co Ltd | 生体情報検出装置 |
JP2010187928A (ja) | 2009-02-18 | 2010-09-02 | Gifu Univ | 測定対象血管の力学的機能の評価方法、測定対象血管の力学的機能評価装置、測定対象血管の力学的機能の評価プログラム及び記憶媒体 |
WO2016067942A1 (ja) | 2014-10-28 | 2016-05-06 | 株式会社三菱ケミカルホールディングス | 検体情報処理装置、情報処理方法、情報処理プログラム、及び同プログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2016083807A1 (en) | 2014-11-25 | 2016-06-02 | Inova Design Solutions Ltd | Portable physiology monitor |
-
2019
- 2019-04-17 JP JP2020521783A patent/JP7216084B2/ja active Active
- 2019-04-17 WO PCT/JP2019/016427 patent/WO2019230234A1/ja active Application Filing
- 2019-05-15 TW TW108116682A patent/TW202010468A/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168884A (ja) | 2003-12-12 | 2005-06-30 | Olympus Corp | 呼吸検査装置 |
JP2010022572A (ja) | 2008-07-18 | 2010-02-04 | Aloka Co Ltd | 生体情報検出装置 |
JP2010187928A (ja) | 2009-02-18 | 2010-09-02 | Gifu Univ | 測定対象血管の力学的機能の評価方法、測定対象血管の力学的機能評価装置、測定対象血管の力学的機能の評価プログラム及び記憶媒体 |
WO2016067942A1 (ja) | 2014-10-28 | 2016-05-06 | 株式会社三菱ケミカルホールディングス | 検体情報処理装置、情報処理方法、情報処理プログラム、及び同プログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2016083807A1 (en) | 2014-11-25 | 2016-06-02 | Inova Design Solutions Ltd | Portable physiology monitor |
Also Published As
Publication number | Publication date |
---|---|
TW202010468A (zh) | 2020-03-16 |
JPWO2019230234A1 (ja) | 2021-07-01 |
WO2019230234A1 (ja) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9990040B2 (en) | Haptic CAPTCHA | |
US10366778B2 (en) | Method and device for processing content based on bio-signals | |
US10824232B2 (en) | Sound outputting apparatus, electronic apparatus, and control method thereof | |
US10416774B2 (en) | Automatic remote sensing and haptic conversion system | |
EP2778843B1 (en) | Automatic haptic effect adjustment system | |
US10620593B2 (en) | Electronic device and control method thereof | |
JP6244292B2 (ja) | 咀嚼検知システム、方法およびプログラム | |
CN106716440A (zh) | 利用头戴式装置进行的基于超声波的面部和模式触摸感测 | |
KR20210006419A (ko) | 건강 관련 정보 생성 및 저장 | |
JP6809712B2 (ja) | 触覚呈示システム、触覚呈示方法、および、触覚呈示プログラム | |
JP5643716B2 (ja) | 情報処理システム、情報処理方法、情報処理装置、情報処理端末、プログラム及び記録媒体 | |
JP7216084B2 (ja) | 情報処理装置、プログラム、及び、センシングデバイス | |
KR102445134B1 (ko) | 사용자의 정보를 기반으로 아바타를 생성하고, 아바타에 대한 nft를 제공하는 시스템 및 방법 | |
WO2021215266A1 (ja) | 制御装置、及び制御方法 | |
US20120226175A1 (en) | Touch-sensitive display apparatus capable of measuring pulse rate and method thereof | |
JP7251614B2 (ja) | ウェアラブル機器、情報処理装置、情報処理システム、及びプログラム | |
WO2021215267A1 (ja) | 制御装置、及び制御方法 | |
US20190148002A1 (en) | System for affecting behavior of a subject | |
JP6432298B2 (ja) | 社会的距離判断装置、社会的距離判断プログラム及び社会的距離判断方法 | |
WO2023037687A1 (en) | System, computer program and method for determining an indicator value of cognitive impairment | |
JP7195314B2 (ja) | バイノーラル音処理装置、情報処理装置、及び、プログラム | |
JP7344423B1 (ja) | ヘルスケアシステムおよびその方法 | |
CN116665892B (zh) | 孤独症评估系统、方法及装置 | |
WO2020162151A1 (ja) | 情報処理装置及びプログラム | |
WO2023037692A1 (en) | Information processing apparatus, method and computer program product for measuring a level of cognitive decline in a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7216084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |