JP5897382B2 - 行為支援方法および行為支援装置 - Google Patents
行為支援方法および行為支援装置 Download PDFInfo
- Publication number
- JP5897382B2 JP5897382B2 JP2012086967A JP2012086967A JP5897382B2 JP 5897382 B2 JP5897382 B2 JP 5897382B2 JP 2012086967 A JP2012086967 A JP 2012086967A JP 2012086967 A JP2012086967 A JP 2012086967A JP 5897382 B2 JP5897382 B2 JP 5897382B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- image
- user
- information
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 404
- 238000000034 method Methods 0.000 title claims description 59
- 230000007704 transition Effects 0.000 claims description 36
- 238000000926 separation method Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 28
- 230000033001 locomotion Effects 0.000 claims description 19
- 230000003796 beauty Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 45
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 14
- 239000003795 chemical substances by application Substances 0.000 description 9
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 230000037308 hair color Effects 0.000 description 6
- 239000007921 spray Substances 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 229910052742 iron Inorganic materials 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 239000006071 cream Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005187 foaming Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000036403 neuro physiology Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
図1は、第1実施形態にかかる行為支援装置100の構成図である。図2は、第1実施形態の行為支援装置100を含む行為支援システム1000のブロック図である。行為支援システム1000は、行為支援装置100、ユーザ端末120およびこれらが接続されたネットワーク110から構成される。
動画像記憶部33は、行為提示者Sの動作を表す動画像52と、この行為提示者Sの鏡像50を目視している当該行為提示者Sの視点VPの推移を示す視線追跡データ62と、が互いに対応づけられて重畳された提示動画像64を記憶する手段である。
受信部78は、反転選択情報CMを受信する。画像取得部77は、受信部78が受信した反転選択情報CMに基づいて提示動画像64の正像または左右反転画像を取得する。
そして、送信部79は、画像取得部77が取得した正像または左右反転画像の提示動画像64を送信する。送信部79は、ネットワーク110を介して提示動画像64をユーザ端末120に送信する。
本実施形態の視線取得部20は、赤外線ダイオードを用いて行為提示者Sに赤外線波長域の光ビーム24を照射する。光ビーム24の強度は、行為提示者Sによる鏡像50の自然な目視を妨げない程度に抑制されている。
このように、遮光性の筐体10の内部に撮像部14を収容することで、光束分離部12を行為提示者Sが目視した際に、筐体10の内部(撮像部14)を行為提示者Sは見ることができない。これにより、撮像部14は、光束分離部12に映る鏡像50を目視する行為提示者Sの視線LOSを遮ることなく、行為提示者Sの頭部60に正対して静止画像(動画像52)を撮像することができる。
そして、視線取得部20は、光束分離部12に鏡像50として映る自身を目視しながらヘアスタイルをセットする行為提示者Sの視線LOSを、視線追跡データ62として取得する。行為提示者Sの視線LOSは、鏡像50の頭部60の一部または全部に対して連続的に向けられる。
本方法は、行為提示者Sの動作を表す動画像52と、行為提示者Sの鏡像50を目視している当該行為提示者Sの視点VPの推移を示す視線追跡データ62と、が互いに対応づけられて重畳された提示動画像64を、反転選択情報CMに基づいて正像または左右反転画像で表示出力させる行為支援方法である。
本方法は、行為支援装置100が、反転選択情報CMとして利き手情報IUHを取得して、動画像記憶部33に記憶された提示者利き手情報IPHとの一致または不一致を画像取得部77が判定する方法である。図4は、第1実施形態にかかる行為支援方法のフローチャートである。
このほか、画像取得部77は、ユーザの利き手に関連する選択式の質問メッセージを表示出力部128に表示出力してもよい。本実施形態の場合、たとえば、「ドライヤーやアイロンカーラーをどちらの手で持ちますか」など美容行為に関連する設問が好ましい。かかる設問に対してユーザが入力部122を通じて回答すると、この回答メッセージが利き手情報IUHとして受信部78に送信される。これにより、画像取得部77は、ユーザの利き手情報IUHを取得することができる。
したがって、上記第1実施形態に代えて、視線追跡データ62が重畳されていない動画像52の正像又は左右反転画像を表示出力する形態においても、これを目視するユーザのミラーニューロンの特性が活用されて行為提示者Sの動作を模倣することが容易となる。以下、視線追跡データ62が重畳されていない動画像52を表示出力する形態を第2実施形態として説明する。以下、第2実施形態について、第1実施形態と異なる内容を中心に説明し、第1実施形態と同様の内容については適宜省略する。
まず、行為支援装置100は、ユーザが希望する動画像52の選択命令を受け付ける(S211)。
上述の第2実施形態では、動画像52とそれに写る行為提示者の手との関係が動画像52と共に動画像記憶部33に格納される行為提示者情報により取得される例が示されたが、当該行為提示者情報は、動画像52を画像解析することにより自動で取得されるようにしてもよい。
参考文献:特開2010−15463号公報
さらに、上述の第1実施形態及び第2実施形態の変形例として、視線追跡データ62が重畳された提示動画像64と、視線追跡データ62が重畳されていない提示動画像64(すなわち動画像52)と、をユーザが選択して表示出力できるようにしてもよい。具体的には、行為支援装置100の画像取得部77が、動画像52に対して視線追跡データ62を重畳して表示するか否かを選択する命令の入力をユーザ端末120の入力部122より受け付けてもよい。これにより、視線追跡データ62が重畳された提示動画像64をユーザ端末120でまず表示させてユーザは行為提示者Sの視点VPの推移を学び、その後に、視線追跡データ62が重畳されていない動画像52を表示させて行為提示者Sの動作の細部を改めて確認することもできる。
図5に示すステップ(1)では、頭髪の全体にスタイリング剤をスプレー塗布する。同図で、行為提示者Sの視線が停止した位置が黒丸のスポットSPで示され、連続するスポットSPが細線LNで示されている。細線LNは行為提示者Sの視点の移動方向を示し、スポットSPは行為提示者Sが視点を置いている部位を示す。したがって、スポットSPが集中している領域は行為提示者Sが強く着目している部位を示す。図6から図17においては、同様の符号は適宜省略する。
図6および図7に示すステップ(2)では、髪止めBRを任意で頭髪に挿入する。ステップ(2)は、後記のステップ(3)で毛束を分け取るための準備工程である。具体的には、コメカミより上の髪が垂れないように髪止めBRで止める。髪止めBRにより略コメカミ位置で頭髪を上下に分け、先ずコメカミよりも下から生えている頭髪に対してウェーブをつける。
図8から図14に示すステップ(3)では、アイロンカーラー(カーラー)を用いて頭髪にウェーブを形成する。
図15に示すステップ(4)では、仕上げ剤を頭髪の全体にスプレー塗布する。頭髪の数カ所に対して、仕上げ剤をスプレーする位置(ターゲット)を決めたうえで塗布していく。このとき、スプレーの広がりを予測して、剤が当たると予想される位置を含む広い範囲に視点(SP6)を分散させるとともに、更に、ステップ(1)のスタイリング剤の場合とは異なり、実際に剤が当たった部位に関しても、狭い範囲に視点(SP7)を集めて目視確認していることが分かる。
図16および図17に示すステップ(5)では、最後の仕上がりのウェーブスタイルの良否を目視確認する。具体的には、図16に示すように、ウェーブスタイル全体としてウェーブ範囲の自然な広がりを確認し、また、図17に示すように、毛束ごとのウェーブ方向の自然なバラツキを確認する。このように、全体的な確認と局所的な確認とを交互に行うとよいことが分かる。
『自分が同じ動作をすることを思ってAとBの動画を比較して見てください。その動作をしやすいと感じたのはどちらですか?以下の選択肢から結果を選んでください。』
(選択肢) スコア
・Aの方がBより動作がし易い +2
・Aの方がBよりやや動作がし易い +1
・どちらも同じ 0
・Bの方がAよりやや動作がし易い −1
・Bの方がAより動作がし易い −2
実験1では、細かい注意が不要な行為として、ヘアカラー、ドライヤー、ファンデーションの3つの行為について、行為提示者の前方から撮像された3つの動画像が刺激に用いられたアンケート調査(実験1−1と表記)と、ヘアカラー、ドライヤーの2つの行為について、行為提示者の後方から撮像された2つの動画像が刺激に用いられたアンケート調査(実験1−2と表記)とが行われた。なお、実験1の刺激とされたヘアカラー及びファンデーションは、広いエリア(頭髪全体、頬)を対象とした行為である。
実験2では、細かい注意が必要な行為として、アイメイク、ファンデーション、ヘアカラーの3つの行為について、行為提示者の前方から撮像された3つの動画像が刺激に用いられたアンケート調査が行われた。なお、実験2の刺激とされたファンデーション及びヘアカラーは、実験1よりも狭いエリアを対象とする行為である。図26Aは、実験2で刺激として用いられたアイメイクを表す動画像を概念的に示す図であり、図26Bは、実験2で刺激として用いられたファンデーション及びヘアカラーを表す動画像を概念的に示す図である。
実験3では、通常鏡を介さずに直視しながら行われる行為として、手のひらへの泡出しの行為について、行為提示者の視線方向(前方向)に撮像された1つの動画像が刺激に用いられたアンケート調査が行われ(実験3−1と表記)、当該行為として、腕へのクリーム出し及びクリーム取りの2つの行為について、行為提示者の前方から(視線方向とは逆方向に)撮像された2つの動画像が刺激に用いられたアンケート調査が行われた(実験3−2と表記)。図27は、実験3−1で刺激として用いられた動画像を概念的に示す図であり、図28は、実験3−2で刺激として用いられた2つの動画像を概念的に示す図である。
補足実験として、更に、手グシで髪にドライヤーをかける場合に、どちらの手でドライヤーを持つかというアンケート調査が8名に対して行われた。この結果、8名全員が利き手で持つと回答した。結果、行為提示者が本補足実験の対象の上記行為をする場合、器具を扱う行為提示者の手とユーザの手との間の関係情報を用いず、利き手情報のみを用いて、行為提示者の利き手がユーザの利き手の鏡像位置となるように動画像の正像又は左右反転画像を表示出力させることにより、ドライヤーを持つ手同士、クシの役割を担う手同士をそれぞれ鏡像位置とすることができる。
(1)行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を、反転選択情報に基づいて正像または左右反転画像で表示出力させることを特徴とする行為支援方法;
(2)ユーザの利き手を示す利き手情報を前記反転選択情報として取得し、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるよう前記正像または前記左右反転画像を選択して前記提示動画像を表示出力させる上記(1)に記載の行為支援方法;
(3)前記提示動画像が、前記視線追跡データの一部を強調して表示するための付加情報を含む上記(1)または(2)に記載の行為支援方法;
(4)前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記提示動画像が前記視点の推移先の位置または推移方向を予め表示するための付加情報を含む上記(1)から(3)のいずれかに記載の行為支援方法;
(5)前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記視線追跡データの少なくとも一部が前記動画像における前記動作の推移を先導していることを特徴とする上記(1)から(4)のいずれかに記載の行為支援方法;
(6)前記行為提示者が美容専門家であり、前記動作が美容行為である上記(1)から(5)のいずれかに記載の行為支援方法;
(7)行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を記憶する動画像記憶手段と、反転選択情報を受信する受信手段と、受信した前記反転選択情報に基づいて前記提示動画像の正像または左右反転画像を取得する画像取得手段と、取得した前記正像または前記左右反転画像の前記提示動画像を送信する送信手段と、を含む行為支援装置;
(8)前記動画像記憶手段は、前記提示動画像と前記行為提示者の利き手を示す提示者情報とを対応づけて記憶する上記(7)に記載の行為支援装置;
(9)前記受信手段は、ユーザの利き手を示す利き手情報を前記反転選択情報として受信し、前記画像取得手段は、前記動画像記憶手段を参照し、受信した前記利き手情報に基づいて前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となる前記正像または前記左右反転画像を取得する上記(8)に記載の行為支援装置;
(10)前記受信手段は、補助入力装置に関する設定データを前記利き手情報として受信する上記(9)に記載の行為支援装置;
(11)ユーザの利き手を示す利き手情報を前記反転選択情報として含むユーザ情報を、当該ユーザを識別する識別子と対応づけて記憶するユーザ情報記憶手段をさらに備え、前記受信手段は、ネットワークを通じてユーザから前記識別子を受信し、前記画像取得手段は、前記ユーザ情報記憶手段および前記動画像記憶手段を参照して、前記行為提示者の利き手と前記ユーザの利き手との一致または不一致を判定し、これらの利き手どうしが鏡像位置となる前記正像または前記左右反転画像を取得する上記(8)に記載の行為支援装置;
(12)入射光の一部を透過して他の一部を反射する光束分離手段と、前記光束分離手段を透過した前記行為提示者の動画像を撮像する撮像手段と、前記光束分離手段で反射された前記行為提示者の鏡像を目視する当該行為提示者の視点の推移を示す視線追跡データを取得する視線取得手段と、前記動画像における前記行為提示者の動作と、前記視線追跡データが示す前記視点の推移と、の位置およびタイミングを対応づけて前記提示動画像を生成する動画像生成手段と、をさらに含む上記(7)から(11)のいずれかに記載の行為支援装置。
12 光束分離部
14 撮像部
16 信号線
20 視線取得部
22 信号線
24 光ビーム
30 記憶部
31 画像蓄積部
32 視線データ蓄積部
33 動画像記憶部
35 ユーザ情報記憶部
50 鏡像
52 動画像
60 頭部
62 視線追跡データ
64 提示動画像
70 CPU
76 生成部
77 画像取得部
78 受信部
79 送信部
80 バス
91 手情報取得部
92 出力処理部
95 方向判定部
100 行為支援装置
110 ネットワーク
120 ユーザ端末
122 入力部
124 制御部
126 送受信部
128 表示出力部
1000 行為支援システム
BR 髪止め
C 反射面
CM 反転選択情報
CR カーラー
IAT 注目点表示
IDR 方向表示
IPH 提示者利き手情報
IUH 利き手情報
L 距離
LN 細線
LOS 視線
S 行為提示者
SP スポット
VP 視点
Claims (22)
- 行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を、反転選択情報に基づいて正像または左右反転画像で表示出力させることを特徴とする行為支援方法。
- ユーザの利き手を示す利き手情報を前記反転選択情報として取得し、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるよう前記正像または前記左右反転画像を選択して前記提示動画像を表示出力させる請求項1に記載の行為支援方法。
- 前記提示動画像が、前記視線追跡データの一部を強調して表示するための付加情報を含む請求項1または2に記載の行為支援方法。
- 前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記提示動画像が前記視点の推移先の位置または推移方向を予め表示するための付加情報を含む請求項1から3のいずれか一項に記載の行為支援方法。
- 前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記視線追跡データの少なくとも一部が前記動画像における前記動作の推移を先導していることを特徴とする請求項1から4のいずれか一項に記載の行為支援方法。
- 前記行為提示者が美容専門家であり、前記動作が美容行為である請求項1から5のいずれか一項に記載の行為支援方法。
- 行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を記憶する動画像記憶手段と、
反転選択情報を受信する受信手段と、
受信した前記反転選択情報に基づいて前記提示動画像の正像または左右反転画像を取得する画像取得手段と、
取得した前記正像または前記左右反転画像の前記提示動画像を送信する送信手段と、
を含む行為支援装置。 - 前記動画像記憶手段は、前記提示動画像と前記行為提示者の利き手を示す提示者情報とを対応づけて記憶する請求項7に記載の行為支援装置。
- 前記受信手段は、ユーザの利き手を示す利き手情報を前記反転選択情報として受信し、
前記画像取得手段は、前記動画像記憶手段を参照し、受信した前記利き手情報に基づいて前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となる前記正像または前記左右反転画像を取得する請求項8に記載の行為支援装置。 - 前記受信手段は、補助入力装置に関する設定データを前記利き手情報として受信する請求項9に記載の行為支援装置。
- ユーザの利き手を示す利き手情報を前記反転選択情報として含むユーザ情報を、当該ユーザを識別する識別子と対応づけて記憶するユーザ情報記憶手段をさらに備え、
前記受信手段は、ネットワークを通じてユーザから前記識別子を受信し、
前記画像取得手段は、前記ユーザ情報記憶手段および前記動画像記憶手段を参照して、前記行為提示者の利き手と前記ユーザの利き手との一致または不一致を判定し、これらの利き手どうしが鏡像位置となる前記正像または前記左右反転画像を取得する請求項8に記載の行為支援装置。 - 入射光の一部を透過して他の一部を反射する光束分離手段と、
前記光束分離手段を透過した前記行為提示者の動画像を撮像する撮像手段と、
前記光束分離手段で反射された前記行為提示者の鏡像を目視する当該行為提示者の視点の推移を示す視線追跡データを取得する視線取得手段と、
前記動画像における前記行為提示者の動作と、前記視線追跡データが示す前記視点の推移と、の位置およびタイミングを対応づけて前記提示動画像を生成する動画像生成手段と、をさらに含む請求項7から11のいずれか一項に記載の行為支援装置。 - 行為提示者の動作を表す動画像を取得する画像取得工程と、
前記動作における前記行為提示者の手とユーザの手との間の対応関係を示す関係情報を取得する手情報取得工程と、
前記関係情報に基づいて前記行為提示者と前記ユーザとの間で対応付けられる手同士が鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる出力工程と、
前記動画像における前記行為提示者の撮像方向を判定する方向判定工程と、
を含み、
前記出力工程は、前記判定された撮像方向及び前記関係情報に基づいて、前記正像を表示出力させるか又は前記左右反転画像を表示出力させるかを決定する、
行為支援方法。 - 前記手情報取得工程は、前記関係情報として、前記行為提示者の利き手の情報と前記ユーザの利き手の情報とを取得し、
前記出力工程は、前記関係情報に基づいて、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項13に記載の行為支援方法。 - 前記手情報取得工程は、前記関係情報として、前記動作で用いられる器具と、該器具を扱う前記行為提示者の手と前記ユーザの手との間の関係情報とを取得し、
前記出力工程は、前記関係情報に基づいて、前記行為提示者及び前記ユーザにおける同じ器具を扱う手どうしが鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項13に記載の行為支援方法。 - 前記出力工程はユーザ端末の表示手段に前記正像又は前記左右反転画像を表示出力させ、
前記手情報取得工程は、前記ユーザ端末の補助入力装置に関する設定データを前記ユーザの利き手の情報として取得する請求項14に記載の行為支援方法。 - 各ユーザについて、前記関係情報とユーザ識別子とを対応づけて記憶手段にそれぞれ蓄積する蓄積工程を更に含み、
前記手情報取得工程は、ユーザ識別子を取得し、取得されたユーザ識別子に対応する前記関係情報を前記記憶手段から抽出する、
請求項13から15のいずれか1項に記載の行為支援方法。 - 行為提示者の動作を表す動画像を取得する画像取得手段と、
前記動作における前記行為提示者の手とユーザの手との間の関係情報を取得する手情報取得手段と、
前記関係情報に基づいて前記行為提示者と前記ユーザとの間で対応付けられる手同士が鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる出力処理手段と、
前記動画像における前記行為提示者の撮像方向を判定する方向判定手段と、
を備え、
前記出力処理手段は、前記判定された撮像方向及び前記関係情報に基づいて、前記正像を表示出力させるか又は前記左右反転画像を表示出力させるかを決定する、
行為支援装置。 - 前記手情報取得手段は、前記関係情報として、前記行為提示者の利き手の情報と前記ユーザの利き手の情報とを取得し、
前記出力処理手段は、前記関係情報に基づいて、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項18に記載の行為支援装置。 - 前記手情報取得手段は、前記関係情報として、前記動作で用いられる器具と、該器具を扱う前記行為提示者の手と前記ユーザの手との間の関係情報とを取得し、
前記出力処理手段は、前記関係情報に基づいて、前記行為提示者及び前記ユーザにおける同じ器具を扱う手どうしが鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項18に記載の行為支援装置。 - 前記出力処理手段はユーザ端末の表示手段に前記正像又は前記左右反転画像を表示出力させ、
前記手情報取得手段は、前記ユーザ端末の補助入力装置に関する設定データを前記ユーザの利き手の情報として取得する請求項19に記載の行為支援装置。 - 各ユーザについて、前記関係情報とユーザ識別子とを対応づけてそれぞれ格納するユーザ情報格納手段を更に含み、
前記手情報取得手段は、ユーザ識別子を取得し、取得されたユーザ識別子に対応する前記関係情報を前記ユーザ情報格納手段から抽出する、
請求項18から20のいずれか1項に記載の行為支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012086967A JP5897382B2 (ja) | 2011-04-06 | 2012-04-06 | 行為支援方法および行為支援装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084878 | 2011-04-06 | ||
JP2011084878 | 2011-04-06 | ||
JP2012086967A JP5897382B2 (ja) | 2011-04-06 | 2012-04-06 | 行為支援方法および行為支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012223564A JP2012223564A (ja) | 2012-11-15 |
JP5897382B2 true JP5897382B2 (ja) | 2016-03-30 |
Family
ID=47274407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012086967A Active JP5897382B2 (ja) | 2011-04-06 | 2012-04-06 | 行為支援方法および行為支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5897382B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5884755B2 (ja) * | 2013-03-21 | 2016-03-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016033616A (ja) * | 2014-07-31 | 2016-03-10 | ブラザー工業株式会社 | 演奏支援装置及び演奏支援システム |
JP6796560B2 (ja) * | 2016-09-14 | 2020-12-09 | 公益財団法人鉄道総合技術研究所 | プログラム及び列車運転シミュレータ |
CN112370045B (zh) * | 2020-10-15 | 2022-04-05 | 北京大学 | 基于人工智能的功能性动作检测方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4580880A (en) * | 1984-02-21 | 1986-04-08 | William Watson | Non-reversing mirror device with perceived depth perspective |
JPH10274918A (ja) * | 1997-03-31 | 1998-10-13 | Uinetsuto:Kk | 身体動作練習システムおよび身体動作練習用教材 |
JP3789314B2 (ja) * | 2001-03-30 | 2006-06-21 | 株式会社アポロン | 理美容サロンにおける手技支援装置 |
JP5317415B2 (ja) * | 2006-03-27 | 2013-10-16 | 富士フイルム株式会社 | 画像出力装置、画像出力方法、および画像出力プログラム |
JP4924376B2 (ja) * | 2007-11-19 | 2012-04-25 | 大日本印刷株式会社 | メイクアップ録画配信システム |
JP3154529U (ja) * | 2009-07-31 | 2009-10-22 | 佐藤 均 | テレビジョン受像機、携帯電話機、及び電子鏡 |
-
2012
- 2012-04-06 JP JP2012086967A patent/JP5897382B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012223564A (ja) | 2012-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102567431B1 (ko) | 눈 이미지 수집, 선택 및 결합 | |
US11380021B2 (en) | Image processing apparatus, content processing system, and image processing method | |
KR102504245B1 (ko) | 생체 인증 정보를 교환하도록 구성된 머리 장착 디스플레이 시스템 | |
JP6774367B2 (ja) | ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム | |
JP5897382B2 (ja) | 行為支援方法および行為支援装置 | |
WO2019154339A1 (zh) | 特效程序文件包的生成及特效生成方法与装置、电子设备 | |
US7259732B2 (en) | Cosmetic enhancement mirror | |
WO2018076622A1 (zh) | 图像处理方法、装置及终端 | |
US10996474B2 (en) | Virtual reality system and information processing system | |
CN109982616B (zh) | 用于支持至少一个用户执行个人护理活动的装置和方法 | |
KR20180125859A (ko) | 눈썹 모습 가이드 디바이스 및 방법 | |
WO2024114470A1 (zh) | 商品虚拟试用效果展示方法及电子设备 | |
US11328187B2 (en) | Information processing apparatus and information processing method | |
WO2023230290A1 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
Guo et al. | Investigating cursor-based interactions to support non-visual exploration in the real world | |
Schurr et al. | The role and future of endoscopic imaging systems | |
US20230384860A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
JP5555073B2 (ja) | 美容支援装置及び美容カウンセリング方法 | |
JP2012238088A (ja) | 画像選択表示方法および装置 | |
US20080001851A1 (en) | Cosmetic enhancement mirror | |
Garcia et al. | A BMI-AR Framework for Hands-Free Instruction | |
RU2818028C1 (ru) | Способ и устройство для калибровки при окулографии | |
US20240331294A1 (en) | Rendering of A Guest User's Face for External Display | |
JP6168630B2 (ja) | 画像選択表示方法および装置 | |
Liu et al. | Object manipulation based on the head manipulation space in VR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160302 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5897382 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |