JP2016167130A - 手振り翻訳システム - Google Patents

手振り翻訳システム Download PDF

Info

Publication number
JP2016167130A
JP2016167130A JP2015045920A JP2015045920A JP2016167130A JP 2016167130 A JP2016167130 A JP 2016167130A JP 2015045920 A JP2015045920 A JP 2015045920A JP 2015045920 A JP2015045920 A JP 2015045920A JP 2016167130 A JP2016167130 A JP 2016167130A
Authority
JP
Japan
Prior art keywords
hand
communicator
positional relationship
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015045920A
Other languages
English (en)
Other versions
JP6479508B2 (ja
Inventor
中村 岳史
Takeshi Nakamura
岳史 中村
基行 青井
Motoyuki Aoi
基行 青井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Union Software Man Co Ltd
Union Software Management Co Ltd
Original Assignee
Union Software Man Co Ltd
Union Software Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Union Software Man Co Ltd, Union Software Management Co Ltd filed Critical Union Software Man Co Ltd
Priority to JP2015045920A priority Critical patent/JP6479508B2/ja
Publication of JP2016167130A publication Critical patent/JP2016167130A/ja
Application granted granted Critical
Publication of JP6479508B2 publication Critical patent/JP6479508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】手話、ジェスチャーなどの手振りを適切に認識し翻訳できる身振り翻訳システムを提供する。
【解決手段】手振り翻訳システム1は、伝達者OPの上体PUをビデオ撮影する上体カメラ部41と、伝達者OPの右手PHR及び左手PHLをビデオ撮影する、上体カメラ部41と離間し、互いに離間して配置された複数の手カメラ部31,32と、手カメラ部から出力された手撮影データDH1,DH2を用い、右手及び左手を検知して、右手及び左手の指先、指関節、掌の位置データを取得する手データ取得部21と、上体カメラ部41から出力された上体撮影データDPを用いて、上体と、右手との右手位置関係、並びに、左手との左手位置関係を取得する手位置関係取得部22と、右手及び左手の各部の位置データ、右手位置関係及び左手位置関係、並びに、これらの変化から、伝達者の手振りの意味を識別する手振り識別部23と、手振りの意味を被伝達者に知覚可能に出力する出力部50,60と、を備える
【選択図】図2

Description

本発明は、伝達者の行う手話などの手振りを、被伝達者に知覚可能な画像や音声などの出力に翻訳する身振り翻訳システムに関する。
伝達者が被伝達者に対し、手話などの手振りで自身の意思を伝えたい場合が有るが、被伝達者が手振りの示す意味を知らない場合には、意思疎通が困難である。そこで、例えば、下記特許文献1では、携帯電話のユーザが携帯電話に付属のカメラに向かって手話を行うと、手話認識部で画像認識結果によって手話を認識し、手話を日本語に変換して、通話の相手に音声で送信する携帯電話が提案されている。
特開2004−254218号公報
しかしながら、1つのカメラで撮影したビデオ画像を用いて、手(手指、掌(手のひら)など、手首より先の部位をいう)の位置や各手指の形、これらの動きを適切に画像認識することは、困難である。1つのカメラからの画像では、手の位置や各手指の形(姿態)を立体的に認識できないからである。
ところで、手のモーションキャプチャ機器として、Leap Motion社のLEAP MOTION(商標名)が知られている。このLEAP MOTIONは、2つの赤外線カメラを有しており、赤外線LEDで照明された手についての2つのカメラの画像データから、右手及び左手を認識し、その10本の指(指先及び関節)、掌の立体的な位置を検知する。これにより、手の形(手指の形)や掌の向きなど手の姿態を適切に認識することができる。
しかし、手話においては、手の姿態のほか、手の位置や手の動きも重要な要素であり、例えば、手を右肩の前に位置させる、手を右胸の前に位置させる、手を胸の前から肩の前に移動させる(手を持ち上げる)などにより、異なる意味を表す場合がある。
このため、LEAP MOTIONのように、手の形(姿態)を認識して、認識結果を翻訳に用いるだけでは、手話などの手振りを適切に翻訳できないことが判ってきた。
本発明は、かかる問題点に鑑みてなされたものであって、手話、ジェスチャーなどの手振りを適切に認識して、翻訳することができる身振り翻訳システムを提供する。
上記課題を解決するための本発明の一態様は、伝達者の上体をビデオ撮影する上体カメラ部と、上記上体カメラ部と離間し、かつ、互いに離間して配置され、上記伝達者の上記右手及び左手をビデオ撮影する複数の手カメラ部と、上記複数の手カメラ部から出力された手撮影データを用い、上記伝達者の上記右手及び左手を検知して、上記右手のうち、各手指の指先、指関節、掌の位置データ、及び、上記左手のうち、各手指の指先、指関節、掌の位置データを取得する手データ取得部と、上記上体カメラ部から出力された上体撮影データを用いて、上記伝達者の上記上体と、上記右手との位置関係である右手位置関係、並びに、上記伝達者の上記上体と、上記左手との位置関係である左手位置関係を取得する手位置関係取得部と、上記右手及び左手についての各部の上記位置データ、上記右手位置関係及び上記左手位置関係、並びに、これらの変化から、上記伝達者が上記右手及び上記左手を用いて示す手振りの意味を識別する手振り識別部と、上記手振り識別部で得た、上記伝達者の手振りが示す意味を、被伝達者に知覚可能に出力する出力部と、を備える手振り翻訳システムである。
この手振り翻訳システムでは、上体カメラ部のほか、複数の手カメラ部を有しており、この手カメラ部の手撮影データを用いて、右手及び左手についての各部の立体的な位置データを取得する。加えて上体カメラ部の上体撮影データを用いて、右手位置関係及び左手位置関係を取得するので、手振り識別部において、右手及び左手についての各部の位置データ、右手位置関係及び左手位置関係、並びに、これらの変化(手の動き)から、伝達者が示す手振りの意味を適切に識別することができ、これを出力部に出力することができる。かくして、手話、ジェスチャーなどの手振りを適切に認識して、翻訳することができるシステムとなる。
なお、「手振り」とは、伝達者が右手及び左手で示す、手話、ジェスチャーなどで示される、手の位置、手の向き、手指の形、これらの動きをいう。
また、「伝達者」とは、被伝達者に向けて伝えたい意味を有する手振りを行う者をいう。
「上体カメラ部」としては、可視光、赤外光、または紫外光を用いて撮像可能なレンズ、撮像素子(CCDイメージセンサなど)等を含む光学系を有し、伝達者の上体をビデオ撮影するカメラ部が挙げられる。
なお必要に応じて、上体カメラ部と共に、伝達者の上体のビデオ撮影を補助する補助光(可視光、赤外光、または紫外光)を発するLED、ELなどで構成された上体用の発光部を備えることもできる。
また、「手カメラ部」は、可視光、赤外光、または紫外光を用いて撮像可能なレンズ、撮像素子等を含む光学系を有し、伝達者の右手及び左手をビデオ撮影するカメラ部が挙げられる。また、「手カメラ」は、複数(例えば一対)存在しており、互いに離間して配置され、それぞれが伝達者の右手及び左手をビデオ撮影する。複数の手カメラで撮影された画像データを利用することで、撮影された手について生じる視差を用いて、右手及び左手の各部の空間的な位置を把握する。
なお必要に応じて、手カメラ部と共に、伝達者の上体の撮像を補助する補助光(可視光、赤外光、または紫外光)を発するLED、ELなどで構成された手用の発光部を備えることもできる。
「指関節」とは、親指の第1,第2関節、人差し指、中指、薬指、小指の第1,第2,第3関節をいう。
右手及び左手の各部の「位置データ」としては、各々の手カメラが撮影する円錐状の撮像空間が互いに交差して形成された、複数の手カメラで同時に手を撮影可能な交差撮像空間における、右手及び左手の各部(例えば、右人差し指の指先)の立体的な位置を示す位置データが挙げられる。
また、手データ取得部では、前述の各部の位置のほか、手の他の各部、例えば、手首、母指球、小指球などの位置をも検知するようにしても良い。
「右手位置関係」は、伝達者の上体と右手との関係、例えば、伝達者の頭、右肩、左肩、右胸、及び左胸と、右手との位置関係を示す。例えば具体的には、伝達者の右手が、「胸の前(両肩の下)に位置している」、「右胸の前(右肩の下)に位置している」、「右肩の前(右胸の上)に位置している」などの位置関係が挙げられる。また、「左手位置関係」は、伝達者の上体と左手との関係、例えば、伝達者の頭、右肩、左肩、右胸、及び左胸と、左手との位置関係を示す。例えば具体的には、伝達者の左手が、「頭の前(両肩の上)に位置している」、「頭の右(右肩の上)に位置している」、「左肩の前(左胸の上)に位置している」などの位置関係が挙げられる。
「手位置関係取得部」は、上体撮影データを用いて右手位置関係及び左手位置関係を取得するが、上体撮影データのほかに、手撮影データあるいは右手及び左手についての各部の位置データを併せて用いて、右手位置関係及び左手位置関係を取得することもできる。
また、「出力部」としては、識別した前記伝達者の手振りが示す意味を、文字、図形等の画像データとしてディスプレイに表示させるものや、音声データとして、発音させるものが挙げられる。
さらに、本発明の手振り翻訳システムは、その各部を含む単一の装置(手振り翻訳装置)として構成することができる。また、複数のユニットからなるものとすることもできる。例えば、上体カメラ部と、複数の手カメラ部と、上体撮影データや手撮影データを処理する手位置関係取得部、手データ取得部、及び手振り識別部とを、各々離間して設け、上体撮影データや手撮影データの伝送を、ケーブルや無線通信により行うようにしても良い。また、手振り識別部と出力部との間を離間して設け、画像データや音声データの伝送を、ケーブルや無線通信により行うようにしても良い。
上述の手振り翻訳システムであって、前記出力部は、識別した前記伝達者の手振りが示す意味を、画像データとする画像データ化部、及び、上記画像データを表示するディスプレイ部を含む手振り翻訳システムとすると良い。
このシステムでは、伝達者の手振りを、文字、図形、絵などの画像としてディスプレイ部に表示できるので、被伝達者に対して、伝達者の手振りの意味を確実に伝えることができる。
なお、画像データとしては、ディスプレイに表示させる、文字、図形、イラスト、絵,写真、アニメーション、ビデオ画像などが挙げられる。
また、上述の手振り翻訳システムであって、前記出力部は、識別した前記伝達者の手振りが示す意味を、音声データとする音声データ化部、及び、上記音声データに対応する音声を発する発音部を含む手振り翻訳システムとすると良い。
このシステムでは、伝達者の手振りの意味を、被伝達者に対して、音声として伝えるので、多人数の被伝達者に同時に伝えやすい。
実施形態に係る手振り翻訳システムの全体構成を示す説明図である。 実施形態に係る手振り翻訳システムの機能ブロック図である。 実施形態に係り、上体カメラ部で伝達者の上体を撮像した画像の例を示す図である。 実施形態に係り、手カメラ部で伝達者の手を撮像した画像の例、及び、この手の画像に、認識した左右各手指の指先、手指関節、掌の位置を示すハンドフレームを重ね合わせた図である。
以下、本発明の実施の形態を、図面を参照しつつ説明する。図1に、本実施形態に係る手振り翻訳システム(以下単に「システム」ともいう)1の全体構成を示す。また、図2に、手振り翻訳システム1の機能ブロック図を示す。また、図3に、上体カメラ部で伝達者OPの上体を撮像した画像の例を示す。また、図4に、手カメラ部31,32で伝達者OPの手PHR,PHLを撮像した画像の例、及び、この手の画像に、認識した左右各手指の指先、手指関節、掌の位置を示すハンドフレームを重ね合わせた図を示す。
なお、以下の説明における上下、左右、前後は、伝達者OPから見た表現で記載する。
本実施形態に係る手振り翻訳システム1は、処理装置2、これに接続された手カメラユニット3、上体カメラユニット4、ディスプレイ部52、及び発音部62からなる(図1参照)。
このうち、上体カメラユニット4は、上体カメラ部41及び上体照明LED42を含み、処理装置2に有線で、具体的にはUSB(Universal Serial Bus)ケーブルで接続して、処理装置2から給電を受ける。上体カメラ部41は、図1に示すように、伝達者OPの前方に配置され、図3に示すように、伝達者OPの頭PH、右肩PSR、左肩PSL、右胸PCR、左胸PCL、右腕PAR、左腕PAL、右手PHR、及び左手PHLを含む、伝達者OPの上体PUをビデオ撮影する上体カメラ部41であり、処理装置2の手位置関係取得部22に向けて、上体撮影データDPを送信する。上体照明LED42は、環境が暗い場合など、伝達者OPのビデオ撮影に適さない場合に、伝達者OPを照明する補助光(本実施形態では可視光である白色光)を発する白色LEDである。
なお、上体カメラユニット4(上体カメラ部41)は、伝達者OPの頭PH等を含む上体PUをビデオ撮影できれば良く、伝達者OPの正面に配置せず、例えば伝達者OPの前下方に配置することもできる。
一方、手カメラユニット3は、上体カメラユニット4とは離間して配置されており、2つの手カメラ部31,32及び3つの手照明LED33,34,35を含み、処理装置2に有線で、具体的にはUSBケーブルにより接続して、処理装置2から給電を受ける。このうち、一対の手カメラ部31,32は、いずれも広角対物レンズを含む赤外線カメラであり、図1に示すように、手カメラユニット3において、互いに離間して配置されている。手カメラ部31,32それぞれが撮影した手(右手PHR及び左手PHL)の画像に視差を生じさせて、手の位置を立体的に把握するためである。手カメラ部31,32は、撮影した手撮影データDH1,DH2を、処理装置2の手データ取得部21に向けて送信する。
また、手照明LED33,34,35は、伝達者OPの手を照明する補助光(本実施形態では赤外光)を発する赤外線LEDである。手照明LED33は、手カメラ部31と手カメラ部32の間に、手照明LED34は手カメラ部31の外側に、手照明LED35は手カメラ部32の外側に配置されている。
手カメラユニット3は、伝達者OPの右手PHR及び左手PHLを撮影し易い位置に配置する。例えば、図1に示すように、下方から、伝達者OPの右手PHR及び左手PHLを撮影するように配置する。
処理装置2は、図示しないCPU,ROM,RAM等を有する公知のコンピュータであり、手データ取得部21、手位置関係取得部22、手振り識別部23、画像データ化部51、音声データ化部61として機能する。
このうち、手データ取得部21では、まず、2つの手カメラ部31,32から送信された手撮影データDH1,DH2を用いて、図4に示すように、伝達者OPの右手PHRを認識し,さらには、右手PHRの親指RF1,人差し指RF2,中指RF3,薬指RF4,小指RF5における、指先RF10,RF20,RF30,RF40,RF50、第1関節RF11,RF21,RF31,RF41,RF51、第2関節RF12,RF22,RF32,RF42,RF52、第3関節RF23,RF33,RF43,RF53、右手掌RH0の位置を認識する。また、同様に、伝達者OPの左手PHLの親指LF1,人差し指LF2,中指LF3,薬指LF4,小指LF5における、指先LF10,LF20,LF30,LF40,LF50、第1関節LF11,LF21,LF31,LF41,LF51、第2関節LF12,LF22,LF32,LF42,LF52、第3関節LF23,LF33,LF43,LF53、左手掌LH0の位置を認識する。
更に2つの手撮影データDH1,DH2で認識した各部位RH0,LH0,…の視差を用いて、右親指RF1の指先RF10など、右手PHR及び左手PHLの各部位の三次元空間における位置を算出する。具体的には、手カメラ部31が撮影する、手カメラ部31の対物レンズを頂点とする錐状の空間と、手カメラ部32の対物レンズを頂点とする錐状の空間とが交差した三次元空間における位置である。
なお、右手PHR及び左手PHLの各部位の三次元空間における位置の変化により、手指の動き及び手の移動を認識することもできる。
一方、手位置関係取得部22では、上体撮影データDPを用いて、伝達者OPの頭PH、右肩PSR、左肩PSL、右胸PCR、及び左胸PCLと、右手PHRとの位置関係である右手位置関係を取得する。また、伝達者OPの頭PH、右肩PSR、左肩PSL、右胸PCR、及び左胸PCLと、左手PHLとの位置関係である左手位置関係も取得する。具体的には、「伝達者の右手が、右胸と左胸の間(胸の前、両肩の下)に位置している」、「伝達者の左手が、右胸と左胸の間よりも下に位置している」(図3の手の姿態参照)などの位置関係を取得する。
なお、右手位置関係及び左手位置関係を取得するの当たり、上述のように、上体カメラユニット4からの上体撮影データDPのみを用いても良いが、図2において破線で示すように、手データ取得部21で取得した、右手PHR及び左手PHLの各部の位置データをも用いて、右手位置関係及び左手位置関係を取得しても良い。また、上体撮影データDPのほか、手撮影データDH1,DH2を用いて右手位置関係及び左手位置関係を取得しても良い。
その後、手振り識別部23において、伝達者が右手PHR及び左手PHLを用いて示す手振りの意味を識別する。
この際、右手PHR及び左手PHLについての各部の位置データ、右手位置関係及び左手位置関係、並びに、これらの変化(例えば、「伝達者の右手が、右胸の前から右肩の上まで移動」)を用いて、手振りの意味を識別する。即ち、手カメラ部31,32からの手撮影データDH1,DH2を用いて取得した右手PHR及び左手PHLの各部の位置データを用いるほか、上体カメラ部41からの上体撮影データDPを用いて取得した右手位置関係及び左手位置関係を用いるので、伝達者OPが示す手振りの意味を適切に識別することができる。
その後、識別した伝達者OPの手振りが示す意味を、被伝達者に知覚可能に出力する。具体的には、画像データ化部51において、伝達者OPの手振りが示す意味(例えば、「私の名前は○○です。」)を、画像データDGとし、この画像データDG(文字)をディスプレイ部52に表示させる。かくして、被伝達者に対して、伝達者OPの手振りの意味を確実に伝えることができる。なお、図2において破線で囲むように、画像データ化部51とディスプレイ部52とが、伝達者OPの手振りが示す意味を、被伝達者に画像によって知覚可能に出力する第1出力部50に相当している。
そのほか、本実施形態のシステム1では、識別した伝達者OPの手振りが示す意味を、音声でも出力する。具体的には、音声データ化部61において、伝達者OPの手振りが示す意味(例えば、「私の名前は○○です。」)を、音声合成により音声データDSとし、アンプ及びスピーカからなる発音部62から発音させる。かくして、伝達者OPの手振りの意味を、多人数に同時に伝えやすい。なお、図2において破線で囲むように、音声データ化部61と発音部62とが、伝達者OPの手振りが示す意味を、被伝達者に音声によって知覚可能に出力する第2出力部60に相当している。
以上で説明したように、本実施形態のシステム1は、伝達者の手話、ジェスチャーなどの手振りを適切に認識して、翻訳することができるシステムとなる。
以上において、本発明を実施形態に即して説明したが、本発明は上述の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で、適宜変更して適用できることは言うまでもない。
例えば、実施形態では、システム1として、処理装置2と、手カメラユニット3(手カメラ部31,32)と、上体カメラユニット4(上体カメラ部41)とを、三者分離した形態としたが、これらを一体として構成しても良い。
また、処理装置2と、ディスプレイ部52と、発音部62とを、三者分離した形態としたが、これらを一体として構成しても良い。
さらには、処理装置2と、手カメラユニット3(手カメラ部31,32)と、上体カメラユニット4(上体カメラ部41)と、ディスプレイ部52と、発音部62とを一体として構成しても良い。
1 手振り翻訳システム
2 処理装置
21 手データ取得部
22 手位置関係取得部
23 手振り識別部
3 手カメラユニット
31,32 手カメラ部
DH1,DH2 手撮影データ
33,34,35 手照明LED
4 上体カメラユニット
41 上体カメラ部
DP 上体撮影データ
42 上体照明LED
5 第1出力部(出力部)
51 画像データ化部
DG 画像データ
52 ディスプレイ部
6 第2出力部(出力部)
61 音声データ化部
DS 音声データ
62 発音部
OP 伝達者
PU (伝達者の)上体
PHR 右手
PHL 左手
RF1 右親指
RF10 (右親指の)指先
RF11 (右親指の)第1関節(指関節)
RF12 (右親指の)第2関節(指関節)
RF2 右人差し指
RF20 (右人差し指の)指先
RF21 (右人差し指の)第1関節(指関節)
RF22 (右人差し指の)第2関節(指関節)
RF23 (右人差し指の)第3関節(指関節)
RF3 右中指
RF4 右薬指
RF5 右小指
LF0 (左手の)掌
LF1 左親指
LF10 (左指の)指先
LF11 (左親指の)第1関節(指関節)
LF12 (左親指の)第2関節(指関節)
LF2 左人差し指
LF20 (左人差し指の)指先
LF21 (左人差し指の)第1関節(指関節)
LF22 (左人差し指の)第2関節(指関節)
LF23 (左人差し指の)第3関節(指関節)
LF3 左中指
LF4 左薬指
LF5 左小指

Claims (3)

  1. 伝達者の上体をビデオ撮影する上体カメラ部と、
    上記上体カメラ部と離間し、かつ、互いに離間して配置され、上記伝達者の上記右手及び左手をビデオ撮影する複数の手カメラ部と、
    上記複数の手カメラ部から出力された手撮影データを用い、上記伝達者の上記右手及び左手を検知して、
    上記右手のうち、各手指の指先、指関節、掌の位置データ、及び、
    上記左手のうち、各手指の指先、指関節、掌の位置データを取得する手データ取得部と、
    上記上体カメラ部から出力された上体撮影データを用いて、
    上記伝達者の上記上体と上記右手との位置関係である右手位置関係、並びに、
    上記伝達者の上記上体と上記左手との位置関係である左手位置関係を取得する手位置関係取得部と、
    上記右手及び左手についての各部の上記位置データ、上記右手位置関係及び上記左手位置関係、並びに、これらの変化から、上記伝達者が上記右手及び上記左手を用いて示す手振りの意味を識別する手振り識別部と、
    上記手振り識別部で得た、上記伝達者の手振りが示す意味を、被伝達者に知覚可能に出力する出力部と、を備える
    手振り翻訳システム。
  2. 請求項1に記載の手振り翻訳システムであって、
    前記出力部は、
    識別した前記伝達者の手振りが示す意味を、文字、図形、絵などの画像データとする画像データ化部、及び、
    上記画像データを表示するディスプレイ部を含む
    手振り翻訳システム。
  3. 請求項1または請求項2に記載の手振り翻訳システムであって、
    前記出力部は、
    識別した前記伝達者の手振りが示す意味を、音声データとする音声データ化部、及び、
    上記音声データに対応する音声を発する発音部を含む
    手振り翻訳システム。
JP2015045920A 2015-03-09 2015-03-09 手振り翻訳システム Active JP6479508B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015045920A JP6479508B2 (ja) 2015-03-09 2015-03-09 手振り翻訳システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015045920A JP6479508B2 (ja) 2015-03-09 2015-03-09 手振り翻訳システム

Publications (2)

Publication Number Publication Date
JP2016167130A true JP2016167130A (ja) 2016-09-15
JP6479508B2 JP6479508B2 (ja) 2019-03-06

Family

ID=56898494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015045920A Active JP6479508B2 (ja) 2015-03-09 2015-03-09 手振り翻訳システム

Country Status (1)

Country Link
JP (1) JP6479508B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259750A (zh) * 2018-02-07 2018-07-06 商丘职业技术学院 基于固定机位的课程录制系统、视频处理装置和录课方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250407A (ja) * 1992-03-10 1993-09-28 Hitachi Ltd 手話変換装置および方法
JPH0922453A (ja) * 1993-12-16 1997-01-21 Chintai Ri 手の立体形状入力方式
JPH11119897A (ja) * 1997-10-21 1999-04-30 Hitachi Ltd 動作認識装置
JP2014501011A (ja) * 2011-01-03 2014-01-16 エクストリーム リアリティー エルティーディー. 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250407A (ja) * 1992-03-10 1993-09-28 Hitachi Ltd 手話変換装置および方法
JPH0922453A (ja) * 1993-12-16 1997-01-21 Chintai Ri 手の立体形状入力方式
JPH11119897A (ja) * 1997-10-21 1999-04-30 Hitachi Ltd 動作認識装置
JP2014501011A (ja) * 2011-01-03 2014-01-16 エクストリーム リアリティー エルティーディー. 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
波多野美歌 外2名: "手話動作の3要素に基づく実時間手話認識", 電子情報通信学会技術研究報告, vol. 114, no. 92, JPN6019002342, 12 June 2014 (2014-06-12), pages 69 - 74, ISSN: 0003964692 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259750A (zh) * 2018-02-07 2018-07-06 商丘职业技术学院 基于固定机位的课程录制系统、视频处理装置和录课方法

Also Published As

Publication number Publication date
JP6479508B2 (ja) 2019-03-06

Similar Documents

Publication Publication Date Title
US11736756B2 (en) Producing realistic body movement using body images
US11783524B2 (en) Producing realistic talking face with expression using images text and voice
JP6845982B2 (ja) 表情認識システム、表情認識方法及び表情認識プログラム
CN108427910B (zh) 深层神经网络ar手语翻译学习方法、客户端及服务器
WO2016038953A1 (ja) 検出装置、検出方法、制御装置、および制御方法
CN107004414B (zh) 信息处理设备、信息处理方法及记录介质
US20140022371A1 (en) Pupil detection device
EP2800351A1 (en) Expression output device and expression output method
AU2012221894A1 (en) An optical device for the visually impaired
US10275021B2 (en) Display apparatus of front-of-the-eye mounted type
EP2009578A3 (en) Finger vein authentication unit and information processing unit
CN112947755A (zh) 手势控制方法与装置、电子设备及存储介质
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
JP2018061718A (ja) コミュニケーション装置
US10902627B2 (en) Head mounted device for virtual or augmented reality combining reliable gesture recognition with motion tracking algorithm
JP6479508B2 (ja) 手振り翻訳システム
KR102305403B1 (ko) 깊이 영상을 이용한 착용형 증강현실 장치의 손동작 검출 방법 및 깊이 영상을 이용한 손동작 검출이 가능한 착용형 증강현실 장치
JP2015169814A (ja) 意思疎通支援方法および意思疎通支援システム
KR20160004561A (ko) 수화 자동 인식 스마트 글라스 장치
JP2011186007A (ja) 表示制御装置及び情報表示装置
JP2023531849A (ja) オーディオ認識を行う拡張現実デバイスおよびその制御方法
KR102044003B1 (ko) 영상 회의를 위한 전자 장치 및 그의 동작 방법
JP3762745B2 (ja) 対象物識別システム、発光装置及び検出装置
JP2005173419A (ja) 手話解釈装置
US11830182B1 (en) Machine learning-based blood flow tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190206

R150 Certificate of patent or registration of utility model

Ref document number: 6479508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150