JP2015075750A - Image recognition device and image recognition method - Google Patents
Image recognition device and image recognition method Download PDFInfo
- Publication number
- JP2015075750A JP2015075750A JP2013214186A JP2013214186A JP2015075750A JP 2015075750 A JP2015075750 A JP 2015075750A JP 2013214186 A JP2013214186 A JP 2013214186A JP 2013214186 A JP2013214186 A JP 2013214186A JP 2015075750 A JP2015075750 A JP 2015075750A
- Authority
- JP
- Japan
- Prior art keywords
- translation
- image
- parameter
- result
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000013519 translation Methods 0.000 claims abstract description 169
- 238000012937 correction Methods 0.000 claims abstract description 125
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 47
- 230000009471 action Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影対象者の動作を認識する画像認識装置および画像認識方法に関する。 The present invention relates to an image recognition apparatus and an image recognition method for recognizing an action of a person to be photographed.
一般的に、ジェスチャーや手話などを画像認識により翻訳する装置が知られている。このような装置においては、誤認識することが考えられることから、その修正を行うことが必要である。例えば、特許文献1に記載されているように、入力された手話の翻訳の結果、得られた候補をすべて表示し、それらを入力者がマウス等を用いて選択することができる装置が知られている。この特許文献1によれば、正しい翻訳結果を得ることができる。
In general, an apparatus that translates gestures, sign language, and the like by image recognition is known. In such an apparatus, it may be possible to make a correction because it may be erroneously recognized. For example, as described in
しかしながら、特許文献1に記載されている技術では、手話の認識結果を正しいものにするため、マウスなどのデバイスが必要となり、またその操作に手間のかかるものである。
However, in the technique described in
そこで、本発明においては、手話やジェスチャーなどの撮影対象の翻訳結果を簡単な操作で修正することができる画像認識装置および画像認識方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an image recognition apparatus and an image recognition method that can correct a translation result of a photographing target such as a sign language or a gesture by a simple operation.
上述の課題を解決するために、本発明の画像認識装置は、撮影対象を画像データにして取得する画像取得手段と、前記画像取得手段により取得された画像データに含まれる撮影対象の動作に対して、当該動作毎に翻訳を行う画像翻訳手段と、前記画像取得手段により取得された画像データに含まれる撮影対象の動作を示す第1の動作パラメータを、前記動作毎に生成する生成手段と、画像翻訳手段により翻訳された撮影対象の動作の翻訳結果を出力する結果出力手段と、前記結果出力手段により出力された翻訳結果を修正する修正制御手段と、を備え、前記画像取得手段は、前記結果出力手段により翻訳結果が出力された後、修正のための撮影対象の動作を含んだ画像データを再度取得し、前記画像翻訳手段は、前記画像取得手段により再度取得された撮影対象の動作に対する翻訳を行い、前記生成手段は、前記画像取得手段により再度取得された撮影対象の動作の第2の動作パラメータを生成し、前記修正制御手段は、前記第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、前記第2の動作パラメータの動作の翻訳結果に置き換えて修正し、前記結果出力手段は、前記修正制御手段により修正された翻訳結果を出力するように構成されている。 In order to solve the above-described problem, an image recognition apparatus according to the present invention provides an image acquisition unit that acquires a shooting target as image data, and an operation of the shooting target included in the image data acquired by the image acquisition unit. An image translating unit that performs translation for each operation, a generation unit that generates, for each operation, a first operation parameter indicating the operation of the imaging target included in the image data acquired by the image acquisition unit, A result output unit that outputs a translation result of the motion of the object to be photographed translated by the image translation unit; and a correction control unit that corrects the translation result output by the result output unit, wherein the image acquisition unit includes: After the translation result is output by the result output means, the image data including the operation of the photographing target for correction is acquired again, and the image translation means is again acquired by the image acquisition means. Translation is performed on the obtained motion of the photographing target, the generation means generates a second motion parameter of the motion of the photographing target acquired again by the image acquisition means, and the correction control means is the second control parameter. The operation parameter is compared with each of the first operation parameters determined for each operation, and the translation result of the operation corresponding to the first operation parameter satisfying a predetermined condition as a result of the comparison is obtained as the second operation parameter. The result output means is configured to output the translation result corrected by the correction control means.
また、本発明の画像認識方法において、撮影対象の動作を認識する画像認識装置において、撮影対象を画像データにして取得する画像取得ステップと、前記画像取得ステップにより取得された画像データに含まれる撮影対象の動作に対して、当該動作毎に翻訳を行う画像翻訳ステップと、前記画像取得ステップにより取得された画像データに含まれる撮影対象の動作を示す第1の動作パラメータを、前記動作毎に生成する生成ステップと、画像翻訳ステップにより翻訳された撮影対象の動作の翻訳結果を出力する結果出力ステップと、前記結果出力ステップにより出力された翻訳結果を修正する修正制御ステップと、を備え、前記画像取得ステップは、前記結果出力ステップにより翻訳結果が出力された後、修正のための撮影対象の動作を含んだ画像データを再度取得し、前記画像翻訳ステップは、前記画像取得ステップにより再度取得された撮影対象の動作に対する翻訳を行い、前記生成ステップは、前記画像取得ステップにより再度取得された撮影対象の動作の第2の動作パラメータを生成し、前記修正制御ステップは、前記第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、前記第2の動作パラメータの動作の翻訳結果に置き換えて修正し、前記結果出力ステップは、前記修正制御ステップにより修正された翻訳結果を出力する。 Further, in the image recognition method of the present invention, in an image recognition device for recognizing the operation of a shooting target, an image acquisition step for acquiring the shooting target as image data, and a shooting included in the image data acquired by the image acquisition step An image translation step for performing translation for each operation, and a first operation parameter indicating the operation of the imaging target included in the image data acquired by the image acquisition step is generated for each operation. A generation step for outputting, a result output step for outputting the translation result of the motion of the object to be photographed translated by the image translation step, and a correction control step for correcting the translation result output by the result output step. The acquisition step includes the operation of the photographing target for correction after the translation result is output by the result output step. Image data is acquired again, the image translation step translates the operation of the imaging target acquired again by the image acquisition step, and the generation step acquires the operation of the imaging target acquired again by the image acquisition step. The second operation parameter is generated, and the correction control step compares the second operation parameter with each of the first operation parameters determined for each operation, and the result of the comparison is a predetermined condition. The translation result of the operation corresponding to the first operation parameter satisfying the above is corrected by replacing the translation result of the operation of the second operation parameter, and the result output step includes the translation result corrected by the correction control step Is output.
この発明によれば、撮影対象の動作に対する翻訳を行うとともに、第1の動作パラメータを生成して、翻訳結果を出力し、その後、修正のための撮影対象の動作を含んだ画像データを再度取得する。そして、再度取得された撮影対象の動作に対する翻訳を行うとともに、再度取得された撮影対象の動作の第2の動作パラメータを生成する。この第2の動作パラメータを、動作毎に定められた第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、第2の動作パラメータの動作の翻訳結果に置き換えて修正して、翻訳結果を出力する。 According to the present invention, the translation of the motion of the photographing target is performed, the first motion parameter is generated, the translation result is output, and then the image data including the motion of the photographing target for correction is acquired again. To do. Then, the translation of the operation of the imaging target acquired again is performed, and the second operation parameter of the operation of the imaging target acquired again is generated. The second operation parameter is compared with each of the first operation parameters determined for each operation, and the translation result of the operation corresponding to the first operation parameter for which the result of the comparison satisfies a predetermined condition is The translation result of the operation of the second operation parameter is modified and corrected, and the translation result is output.
これにより、修正対象を指定することなく、修正処理を行うことができる。特に、その修正対象を指定するための処理構成を備える必要がなく、その構成を簡易にするとともに、コストを低減することができる。 As a result, the correction process can be performed without specifying the correction target. In particular, it is not necessary to provide a processing configuration for designating the correction target, and the configuration can be simplified and the cost can be reduced.
また、本発明の画像認識装置において、前記画像翻訳手段が修正指示を示す動作を認識すると、前記画像取得手段は修正のための画像データの取得処理を実行する。 In the image recognition apparatus of the present invention, when the image translation unit recognizes an operation indicating a correction instruction, the image acquisition unit executes an image data acquisition process for correction.
この発明によれば、撮影対象が修正指示を示す動作をした場合、それを認識することで修正のための画像データの取得処理を実行する。これにより、修正指示のためのボタンなどの物理的な構成を必要とすることなく、修正指示を実行することができる。さらに、動作により修正を指示するため、撮影対象が近くにいる必要がなく、その使い勝手をよくすることができる。 According to the present invention, when the photographing target performs an operation indicating a correction instruction, the image data acquisition process for correction is executed by recognizing it. Thus, the correction instruction can be executed without requiring a physical configuration such as a button for the correction instruction. Furthermore, since the correction is instructed by the operation, it is not necessary for the subject to be photographed nearby, and the usability can be improved.
また、本発明の画像認識装置において、前記修正制御手段は、あらかじめ定めた条件を満たした場合、前記第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較する。 In the image recognition apparatus of the present invention, the correction control unit compares the second operation parameter with each of the first operation parameters determined for each operation when a predetermined condition is satisfied. .
また、本発明の画像認識装置において、前記修正制御手段は、前記あらかじめ定めた条件として、前記結果出力手段による翻訳結果の出力後、前記画像取得手段による画像取得から前記画像翻訳手段による第2の動作パラメータ生成までの時間が所定時間以内である場合に、動作パラメータの比較処理を行う。 In the image recognition apparatus according to the present invention, the correction control means may include, as the predetermined condition, after the output of the translation result by the result output means, from the image acquisition by the image acquisition means to the second by the image translation means. When the time until operation parameter generation is within a predetermined time, operation parameter comparison processing is performed.
また、本発明の画像認識装置において、前記修正制御手段は、前記あらかじめ定めた条件として、修正指示のための操作を受け付けた場合に、動作パラメータの比較処理を行う。 In the image recognition apparatus of the present invention, the correction control means performs an operation parameter comparison process when an operation for a correction instruction is received as the predetermined condition.
この発明によれば、あらかじめ定めた条件を満たした場合、第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較することで、修正対象となる動作を把握することができる。よって、その条件を満たしていない場合には、比較処理を行わず、その結果、通常の翻訳処理を行うことになる。 According to the present invention, when a predetermined condition is satisfied, the second operation parameter is compared with each of the first operation parameters determined for each operation, thereby grasping the operation to be corrected. be able to. Therefore, when the condition is not satisfied, the comparison process is not performed, and as a result, the normal translation process is performed.
例えば、あらかじめ定めた条件として、翻訳結果の出力後、画像取得から第2の動作パラメータ生成までの時間が所定時間以内であることが考えられる。この場合には、その動作に基づいた処理が所定時間以内、すなわちその動作が短いということは、一連の動作による意思伝達ではなく、ある一動作の修正をすることであると判断することができる。よって、そのような場合には、修正指示を判断し、修正対象のための各動作パラメータの比較処理を実行することで、その処理を自動的に行うことができる。 For example, as a predetermined condition, it is conceivable that the time from image acquisition to second operation parameter generation is within a predetermined time after the translation result is output. In this case, if the processing based on the operation is within a predetermined time, that is, the operation is short, it can be determined that the correction of a certain operation is not a communication of a series of operations. . Therefore, in such a case, it is possible to automatically perform the process by determining the correction instruction and executing the comparison process of each operation parameter for the correction target.
なお、このあらかじめ定めた条件としては、上述の通りすべてを自動的に行うことのほか、修正指示は物理的なボタンや、タッチパネルのボタンなどによる指示を受け付けることもできる。 In addition to automatically performing all of the predetermined conditions as described above, the correction instruction can be an instruction using a physical button, a touch panel button, or the like.
また、本発明の画像認識装置は、画像取得手段により取得された画像データの撮影対象の動作毎の、当該動作の始まりから終わりまでの時間を計測する計測手段をさらに備え、前記生成手段は、撮影対象の動作を示す動作パラメータに加えて、前記動作毎の時間を動作パラメータとして生成する。 Further, the image recognition apparatus of the present invention further includes a measuring unit that measures the time from the start to the end of the operation for each operation of the photographing target of the image data acquired by the image acquisition unit, In addition to the operation parameter indicating the operation of the imaging target, the time for each operation is generated as the operation parameter.
この発明によれば、画像データの撮影対象の動作毎の、当該動作の始まりから終わりまでの時間を計測し、撮影対象の動作を示す動作パラメータに加えて、当該動作毎の時間を動作パラメータとして生成する。これにより、パラメータは動作のみならず、その動作を構成する時間を加味することができ、修正対象となる動作の一致度を判断する際に、より正確に行うことができる。 According to the present invention, the time from the start to the end of the operation is measured for each operation of the imaging target of the image data, and in addition to the operation parameter indicating the operation of the imaging target, the time for each operation is used as the operation parameter. Generate. Thus, the parameter can take into account not only the operation but also the time for configuring the operation, and can be performed more accurately when determining the degree of coincidence of the operation to be corrected.
本発明によれば、修正対象を指定することなく、修正処理を行うことができる。特に、その修正対象を指定するための処理構成を備える必要がなく、その構成を簡易にするとともに、コストを低減することができる。 According to the present invention, correction processing can be performed without specifying a correction target. In particular, it is not necessary to provide a processing configuration for designating the correction target, and the configuration can be simplified and the cost can be reduced.
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.
図1は、本実施形態の画像認識装置100の機能を示すブロック図である。この画像認識装置100は、手話者などのジェスチャーをテキストやイメージなどに翻訳するための装置であり、ジェスチャー入力部101(画像取得手段)、翻訳エンジン部102、画像表示部109(結果出力手段)、および通信制御部110を含んで構成されている。さらに、翻訳エンジン部102は、翻訳制御部103(画像翻訳手段)、パラメータ生成部104(生成手段)、修正制御部105(修正制御手段)、ジェスチャー認識DB106、意図解釈DB107、および文字翻訳DB108を含んで構成されている。この画像認識装置100は、例えば、携帯端末やスマートフォンなどの携帯端末であることが好適である。
FIG. 1 is a block diagram illustrating functions of the
図2は、画像認識装置100のハードウェア構成図である。図1に示される画像認識装置100は、物理的には、図2に示すように、一または複数のCPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、半導体メモリ等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図1における各機能は、図2に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図1に示す機能ブロックに基づいて、各機能ブロックを説明する。
FIG. 2 is a hardware configuration diagram of the
ジェスチャー入力部101は、手話者などの撮影対象者の動作を画像として取得する部分であり、例えばカメラである。
The
翻訳エンジン部102は、ジェスチャー入力部101により取得された撮影対象者の動作に基づいて、手話を理解できない人に対して理解しやすいようにしたテキストまたはイメージに翻訳する部分である。この翻訳エンジン部102は、上述した通り、翻訳制御部103、パラメータ生成部104、修正制御部105、ジェスチャー認識DB106、意図解釈DB107、および文字翻訳DB108を含んだものである。この構成要素についてさらに詳述する。
The
翻訳制御部103は、ジェスチャー入力部101で取得された手話者の動作を含んだ画像データを、ジェスチャー認識DB106、意図解釈DB107、および文字翻訳DB108を参照して、テキストやイメージに翻訳する部分である。なお、翻訳制御部103は、テキストなどの翻訳処理のほか、手話者の動作が修正指示などの制御のための動作であるか否かを認識することができる。
The
パラメータ生成部104は、ジェスチャー入力部101で取得された手話者の動作を含んだ画像データから、当該動作を示す一または複数の動作パラメータを生成する部分である。この動作パラメータは、例えば図3に示されるものが挙げられる。
The
図3は、手話者の動作を示す動作パラメータを説明するための図である。図3(a)は、動作パラメータとその具体例を示す。図3(a)から明らかなとおり、この動作パラメータは、指の動作、指の数、掌の動作、左右方向の手の動作、上下方向の手の動作、手の回転動作の有無、および手の位置から構成される。各動作パラメータの内容は以下の通りである。
指の動作:一動作の中で,指の本数に変化があったか(変化の有無,0か1か)
指の数:一動作の中で,指の本数が何本だったか(何本の状態が一番多かったか,0〜5)
掌の動作:一動作の中で,掌の反転変化があったか(変化の有無,0か1か)
左右方向の手の動作:一動作の中で,左右方向の移動変化があったか(右→左,右←左,右←→左,なし,の0〜3)
上下方向の手の動作2:一動作の中で,上下方向の移動変化があったか(上→下,上←下,上⇔下,なし,の0〜3 )
手の回転動作:一動作の中で,回転方向の移動変化があったか(変化の有無,0か1か)
手の位置:一動作の中で,手は主にどの位置にあったか(顔の前,首の前,身体の前,の0〜2)
FIG. 3 is a diagram for explaining the operation parameters indicating the signer's operation. FIG. 3A shows operation parameters and specific examples thereof. As apparent from FIG. 3 (a), the operation parameters are: finger motion, number of fingers, palm motion, left and right hand motion, vertical hand motion, presence / absence of hand rotation motion, and hand It consists of the position of. The contents of each operation parameter are as follows.
Finger movement: Whether the number of fingers has changed in one movement (whether there is a change, 0 or 1)
Number of fingers: How many fingers were in one movement (how many were the most, 0-5)
Palm movement: Whether there was a flip change in one movement (whether there is a change, 0 or 1)
Left / right hand movement: Has there been a change in left / right movement in one movement (right to left, right to left, right to left, none, 0 to 3)
Up and down hand movement 2: Has there been a movement change in the up and down direction in one movement (up to down, up to down, up to down, up to down, none, 0 to 3)
Rotation of the hand: Whether there was a change in movement in the direction of rotation (whether there was a change, 0 or 1)
Hand position: The main position of the hand in one movement (0-2 in front of the face, in front of the neck, in front of the body)
図3(b)は、「素直」を手話で表現した動作を示している。ここでは、両手で指文字の”も”を作り、その指先を胸にあてて同時に上下に引き離す動作を示している。この場合、指の動作や、指の数等は、0である。一方、手は上下方向に動いているため、「上下方向の手の動作」は、3で表される。また、手の位置は、体の前にあるため、2で表される。 FIG. 3B shows an operation in which “obedient” is expressed in sign language. Here, an operation is shown in which a finger character “mo” is created with both hands and the fingertip is applied to the chest and simultaneously pulled up and down. In this case, the finger motion, the number of fingers, etc. are zero. On the other hand, since the hand is moving in the vertical direction, the “motion of the hand in the vertical direction” is represented by 3. Moreover, since the position of the hand is in front of the body, it is represented by 2.
同様に、図3(c)は、「心配」を手話で表現した動作を示している。ここでは、両手の指先で旨を2回叩く動作を示している。この場合、指の数は、5本認識されるため、5で表される。また、手の位置は、体の前にあるため、2で表される。 Similarly, FIG. 3C shows an operation in which “anxiety” is expressed in sign language. Here, an operation of tapping twice with the fingertips of both hands is shown. In this case, since the number of fingers is recognized, it is represented by 5. Moreover, since the position of the hand is in front of the body, it is represented by 2.
このようにして、指や手の動作・位置を翻訳制御部103が認識することにより、それに基づいてパラメータ生成部104は、各動作パラメータを生成することができる。
In this way, when the
図4は、手話者の動作とその翻訳結果を模式的に示した説明図である。図4(a)〜図4(g)では、一連の手話の動作によって、「羨ましい、私は3日間しか休めないの」を表している。これは上述の翻訳制御部103による翻訳制御に基づいて得られた翻訳結果である。
FIG. 4 is an explanatory diagram schematically showing the actions of the signer and the translation results thereof. 4 (a) to 4 (g) represent "enviable, I can only rest for 3 days" by a series of sign language actions. This is a translation result obtained based on the translation control by the
パラメータ生成部104は、このような手話の一連の動作から各動作の動作パラメータを生成することができる。図5は、パラメータ生成部104により生成された動作パラメータを記述するパラメータテーブルを示す説明図である。図5に示される通り、動作パラメータP1〜P7からなるパラメータセットで、各手話の動作毎に対応付けがなされている。例えば、「羨ましい」は、動作パラメータP2と動作パラメータP5とにおいて1が付与されている。これをパラメータ生成部104は、手話者が手話の一連の動作をすると、翻訳制御部103において認識された手話者の各動作に基づいて各動作パラメータP1〜P7からなるパラメータセットを生成する。なお、図5においては、オプションとして手話動作時間tも、一動作パラメータとして、各動作に対応付けられることも考えられる。これは一連の動作における動作毎にその動作時間が、パラメータ生成部104(計測手段)により計測されたものであり、動作パラメータを用いた一致度の計算において用いられる。
The
修正制御部105は、翻訳制御部103で翻訳された翻訳結果を修正する部分である。より詳しくは、修正制御部105は、あらかじめ定めた条件を満たしている場合に、修正指示前のパラメータ生成部104により生成された動作パラメータ(第1の動作パラメータ)と、修正指示後においてパラメータ生成部104により生成された動作パラメータ(第2の動作パラメータ)とを比較して、修正指示後における動作パラメータとの比較結果が所定条件を満たす修正指示前の動作パラメータに対応する動作の翻訳結果を、修正指示後の動作パラメータの動作の翻訳結果に置き換える修正を行う部分である。例えば、修正制御部105は、その一致度が所定値以上である場合に、修正処理を行うことができる。
The
図3を用いて説明する。図3(b)と図3(c)とにおいて、手話者の手話動作はよく似ている。図3(a)に示される通り、各動作パラメータにおいて、指の動作等は一致しているが、指の数や、上下方向の手の動作などが相違している。修正制御部105は、これら各動作パラメータに基づいて類似度71.4%(5/7)を算出することができ、この類似度が最も高い動作の翻訳結果を修正対象として判断することができる。
このような修正対象の判断手法の適用例を、図4を用いて説明する。図4は、手話の動作、その動作毎の翻訳結果を示す説明図である。図4(a)〜図4(g)で示される通り、手話者は、7つからなる動作をしている。ここで、図4(c)および図4(d)では、「3日間」と表現している部分がある。この“3”の部分を、例えば“4”に修正したい場合、ユーザは、修正指示をしてから4本指を示した動作をすることになる。翻訳制御部103は、これを認識し、そしてパラメータ生成部104は、この“4”を示す動作パラメータ(第2の動作パラメータ)を生成する。修正制御部105は、この“4”を示す動作パラメータと一致度の高い動作パラメータ(第1の動作パラメータ)を、図4で示される一連の動作から探索し、所定の類似度の動作パラメータ(第1の動作パラメータ)を持つ動作の翻訳結果を、修正後の翻訳結果に置き換える処理を行う。ここでは、図4(c)で示される“3”は、“4”と一致度が高いため(指の数のみが異なっているため)、“3”という翻訳結果を“4”という翻訳結果に置き換える処理を行うことになる。
This will be described with reference to FIG. In FIG. 3B and FIG. 3C, the sign language operation of the sign language is very similar. As shown in FIG. 3A, the finger motions and the like are the same in each motion parameter, but the number of fingers and the hand motions in the vertical direction are different. The
An application example of such a correction target determination method will be described with reference to FIG. FIG. 4 is an explanatory diagram showing sign language actions and translation results for each action. As shown in FIG. 4A to FIG. 4G, the sign language person is performing seven operations. Here, in FIG. 4C and FIG. 4D, there is a portion expressed as “3 days”. When it is desired to correct this “3” portion to “4”, for example, the user performs an operation indicating four fingers after giving a correction instruction. The
図1に戻り引き続きブロック図について説明する。ジェスチャー認識DB106は、手話者の動作を翻訳制御部103に認識させるための動作のパターンを記述するデータベースである。これはジェスチャー認識のための一般的なデータベースである。
Returning to FIG. 1, the block diagram will be described. The
意図解釈DB107は、翻訳制御部103が、ジェスチャー認識DB106を参照して、ある程度の動作を認識すると、その意味を解釈するためのデータベースである。ここには動作のパターンとその意味(意図)とが対応付けて記述されることになる。これも一般的なジェスチャー解析のためのデータベースである。
The
文字翻訳DB108は、意図解釈DB107で解釈される意味を一般的な文章に翻訳するためのデータベースである。例えば、「自分」を指し示し、それが主語であると意図解釈DB107を用いて解釈されると、「私は」というように翻訳するためのデータベースである。このデータベースも、ジェスチャー翻訳における一般的なデータベースである。
The
画像表示部109は、翻訳制御部103において翻訳された翻訳結果や、修正制御部105により修正された翻訳結果を表示する部分である。
The
このように構成された画像認識装置100は、さらに、タブレット型の携帯端末であるとすると、背面側(画像表示部109の反対側の面)にカメラであるジェスチャー入力部101が配置されている。そして、そのジェスチャー入力部101により撮影対象者が撮影され、翻訳エンジン部102により翻訳され、画像表示部109にその翻訳結果が表示される。
If the
この画像認識装置100を保持しているユーザ(健常者などで、手話を理解できない人)は、その翻訳結果を撮影対象者(手話者)に向けて、確認させる。撮影対象者は修正したい場合には、再度、ジェスチャー入力部101側をユーザに向けてもらい、所定の修正指示を行うことができる。
A user holding this image recognition apparatus 100 (a person who is healthy and cannot understand sign language) checks the translation result toward the person to be photographed (sign language person). If the person to be photographed wants to correct, the user can again point the
なお、画像認識装置100の両面(表面および背面)に画像表示部109を配置し、背面側にジェスチャー入力部101を配置することにより、ユーザは、画像認識装置100の向きを変えること必要がなくなる。
In addition, by arranging the
つぎに、このように構成された画像認識装置100による手話の翻訳処理について説明する。図6は、画像認識装置100の手話の翻訳処理を示すフローチャートである。
Next, a sign language translation process performed by the
撮影対象となる手話者の手話動作が、ジェスチャー入力部101により撮影され、入力される(S101)。撮影された手話動作は、翻訳制御部103により翻訳されるとともに(S102)、パラメータ生成部104により、翻訳制御部103により認識された手話の動作に基づいて動作パラメータ(第1の動作パラメータ)が生成され、一時記憶される(S103)。これら手話の一連の動作、すなわち一文が終了するまで行われる(S104)。ここで一文が終了、すなわち、一連の手話動作終了後、所定時間手話動作がないと、翻訳制御部103により判断されると、画像表示部109に翻訳結果が表示される(S105)。
The sign language action of the sign language to be photographed is photographed and input by the gesture input unit 101 (S101). The photographed sign language motion is translated by the translation control unit 103 (S102), and the
ここで、修正指示が受け付けられると、修正処理が開始される(S106)。例えば、修正指示としては、手話者やその他のユーザによる所定の修正ボタン(図示せず)などの押下が制御部(図示せず)により検知されたり、手話者による所定のジェスチャー(修正指示を示すもの)が翻訳制御部103により認識されることなどが考えられる。
Here, when a correction instruction is accepted, a correction process is started (S106). For example, as a correction instruction, pressing of a predetermined correction button (not shown) by a sign language person or another user is detected by a control unit (not shown), or a predetermined gesture (a correction instruction is shown by a sign language person). It is conceivable that the
そして、手話者やほかのユーザにより修正指示がなされると、ジェスチャー入力部101により、手話者の動作の撮影が開始される(S107)。そして、上述の修正指示前の撮影処理および翻訳処理と同様に、翻訳制御部103による翻訳処理が行われ(S108)、パラメータ生成部104により動作パラメータ(第2の動作パラメータ)が生成され、記憶される(S109)。ここで、修正指示後の動作パラメータと修正指示前の動作パラメータとが一致する動作、または所定の一致度をもった動作(手話文節)が、パラメータテーブルに記憶されているか否かが、修正制御部105により判断される(S110)。
Then, when a correction instruction is given by a sign language person or another user, the
修正指示後の動作パラメータと修正指示前の動作パラメータが一致する動作、または所定の一致度をもった動作が、パラメータテーブルに記憶されている場合、修正制御部105により、修正指示後の動作パラメータを構成する動作の翻訳結果に、修正指示前の動作パラメータを構成する動作の翻訳結果を置き換える処理が行われる(S111)。そして、画像表示部109にその置き換えられた全翻訳結果が表示される(S111)。翻訳制御部103により、次の入力処理があると判断されると、再度撮影処理や翻訳処理などが繰り返し行われる(S112)。なお、S110において、S107に戻る処理が行われているが、これに限らず、一致する文節がない場合には、エラーとしてもよい。
When the operation parameter after the correction instruction matches the operation parameter before the correction instruction, or the operation having a predetermined degree of coincidence is stored in the parameter table, the
これにより、手話を理解できない人は、手話者からの伝達事項を正しく理解することができる。そして、次の入力がある場合には、S101に戻り、繰り返し、手話の翻訳処理およびその修正処理が行われる。 As a result, a person who cannot understand sign language can correctly understand the matters transmitted from the sign language. If there is the next input, the process returns to S101, and the sign language translation process and its correction process are repeated.
なお、S110において、修正制御部105は、それぞれの動作パラメータが一致するかまたはその一致度が所定値以上であることを判断することにより、修正対象となる動作を特定しているが、これに限るものではない。すなわち、それぞれの動作パラメータに優先順位をつけるたり、重みづけをしたりして、動作パラメータごとの一致度の判断に強弱をつけるようにしてもよい。例えば、動作パラメータP1が重要である場合には、他の動作パラメータが一致していたとしても、動作パラメータP1が一致していない場合には、一致度の所定条件を満たしていないなどの判断処理を行うようにしてもよい。
In S110, the
また、修正指示前と修正指示後とでそれぞれの動作パラメータが一致していた場合に、1を加算することが通常とした場合、重要な動作パラメータについては、所定係数をかけたものとすることにより、重み付け処理をするようにしてもよい。 In addition, when the operation parameters are the same before and after the correction instruction, and when it is normal to add 1, if the operation parameter is normal, it is assumed that the important operation parameter is multiplied by a predetermined coefficient. Thus, a weighting process may be performed.
つぎに、図7における翻訳処理の変形例について説明する。図7は、変形例における翻訳処理を示すフローチャートである。この変形例においては、動作パラメータとして、動作の時間を含んだ点で上述図6とは異なっている。 Next, a modification of the translation process in FIG. 7 will be described. FIG. 7 is a flowchart showing translation processing in the modification. This modification differs from FIG. 6 in that the operation parameter includes the operation time.
図7に示される通り、ジェスチャー入力部101により、手話動作が撮影され、翻訳制御部103により翻訳されると(S101、S102)、パラメータ生成部104により動作パラメータ(第1の動作パラメータ)が生成されるとともに、パラメータ生成部104により、各手話の動作毎(いわゆる手話文節ごと)の時間が計測され、パラメータテーブルに記憶される(S103a)。そして、翻訳結果が画像表示部109に表示され(S105)、修正指示がなされると(S106)、再度手話動作が撮影され、翻訳される(S107、S108)。ここでも、パラメータ生成部104により、修正指示後の動作パラメータ(第2の動作パラメータ)が生成されるとともに、その動作毎(いわゆる手話文節ごと)の時間が計測され、パラメータテーブルに記憶される(S109a)。そして、修正指示後および修正指示前におけるそれぞれの動作パラメータが一致する動作、または所定の一致度がある動作(手話文節)がある場合には(S110)、その動作に対応する翻訳結果を、修正指示後の動作の翻訳結果に置き換える処理が行われ、画像表示部109に表示される(S111)。そして、手話の入力がある限り、これら処理が繰り返し行われる(S112)。なお、S110において、S107に戻る処理が行われているが、これに限らず、一致する文節がない場合には、エラーとしてもよい。
As shown in FIG. 7, when a sign language action is photographed by the
このように手話動作の時間を動作パラメータの一つとすることで、より正確な一致度の判定を行うことができる。 In this way, by using the sign language operation time as one of the operation parameters, it is possible to determine the degree of coincidence more accurately.
つぎに、別の変形例について説明する。図8は、この変形例における画像認識装置100aの機能構成を示すブロック図である。この変形例においては、手話者は修正指示をあらかじめ行うことなく、自動的に画像認識装置100aにて修正指示があったものか否かを判断することができる。その処理を実現するためには、この画像認識装置100aは、修正制御部105aおよびそれに内蔵されるタイマー105bを、修正制御部105に代えて備えている。
Next, another modification will be described. FIG. 8 is a block diagram showing a functional configuration of the
この修正制御部105aは、画像表示部109が翻訳結果を一旦表示した後、ジェスチャー入力部101が手話者の撮影を行うように制御するとともに、タイマー105bの計測を開始させる。そして、ジェスチャー入力部101において取得された手話者の動作を翻訳制御部103が翻訳するとともに、パラメータ生成部104がその動作に対する動作パラメータを生成すると、タイマー105bの計測処理を停止させる。そして、修正制御部105aが、タイマー105bにより計測された翻訳処理時間およびパラメータ生成時間が所定時間内で終了したと判断した場合には、再取得した動作に対する動作パラメータの一致度に応じて、修正処理を実行することができる。なお、動作パラメータの比較処理については上述のとおり各動作パラメータに重み付けをしたり、優先順位をつけるようにしてもよい。
The
なお、上述の実施形態と同様に、修正するごとに、この画像認識装置100aの画像表示部109が配置されている側の手話者に向けて、その翻訳結果を確認させるとともに、確認後再度ジェスチャー入力部101側を手話者に向けて、継続した手話の翻訳か、またはその修正か判断するようにしてもよい。また、画像認識装置100aの両面に画像表示部109を配置してもよい。
As in the above-described embodiment, every time correction is performed, the signer on the side where the
図9は、その具体的な処理を示すフローチャートである。撮影対象となる手話者の手話動作が、ジェスチャー入力部101により撮影され、入力される(S201)。撮影された手話動作は、翻訳制御部103により翻訳されるとともに(S202)、パラメータ生成部104により、翻訳制御部103により認識された手話の動作に基づいて動作パラメータ(第1の動作パラメータ)が生成され、一時記憶される(S203)。これら手話の一連の動作、すなわち一文が終了するまで行われる(S204)。ここで一文が終了、すなわち、所定時間手話動作がないと、翻訳制御部103により判断されると、画像表示部109に翻訳結果が表示される(S205)。
FIG. 9 is a flowchart showing the specific processing. The sign language action of the sign language to be photographed is photographed and input by the gesture input unit 101 (S201). The photographed sign language motion is translated by the translation control unit 103 (S202), and the
そして、ジェスチャー入力部101により、手話者の撮影が再開され(S206)、手話動作時間の計測のためのタイマー105bの計測が開始される(S207)。ここでは、このタイマー105bは、修正制御部105a内に内蔵されているものとするが、特にこれに限定するものではない。翻訳制御部103により、ジェスチャー入力部101により入力された手話者の動作に基づいて翻訳が行われる(S208)。この翻訳とともに、パラメータ生成部104により、手話者の動作に基づいた動作パラメータ(第2の動作パラメータ)が生成される(S209)。動作パラメータが生成されると、手話動作時間の計測のためのタイマー105bによる計測処理が停止され、その計測時間が所定時間内か否かが、修正制御部105aにより判断される(S210)。
Then, the
ここで、再度取得された動作(手話文節)に基づいて生成された動作パラメータが、先に取得された動作に基づいて生成された動作パラメータと一致する、またはその一致度が所定条件を満たしていると(S211)、修正制御部105により、判断されると、再度取得された手話者の動作は、次の手話のための動作ではなく、修正のための動作であると判断することができる。なお、S211において、一致するものがない場合には、S206に戻る処理が行われているが、これに限らず、一致する文節がない場合には、エラーとしてもよい。 Here, the motion parameter generated based on the motion (sign language phrase) acquired again matches the motion parameter generated based on the motion acquired earlier, or the matching degree satisfies a predetermined condition. If it is determined by the correction control unit 105 (S211), it is possible to determine that the operation of the signer acquired again is not an operation for the next sign language but an operation for correction. . If there is no match in S211, the process returns to S206. However, the present invention is not limited to this, and an error may be generated if there is no matching phrase.
そして、一致するまたは一致度が所定条件を満たしている動作パラメータに対応する動作の翻訳結果を置き換える処理が、修正制御部105により行われ、画像表示部109に表示される(S212)。そして、これら処理が、ジェスチャー入力がある限り繰り返し行われる(S213)。
Then, a process of replacing the translation result of the operation corresponding to the operation parameter that matches or satisfies the predetermined condition is performed by the
このように、修正指示などの具体的な指示を手話者や他のユーザが行うことなく、自動的に修正を行うことができ、使い勝手の良い手話翻訳のための画像認識装置を提供することができる。 Thus, it is possible to provide an image recognition apparatus for sign language translation that can be automatically corrected without a specific instruction such as a correction instruction being performed by a sign language person or another user, and is easy to use. it can.
上述実施形態および変形例においては、画像認識装置100の中に、ジェスチャー認識DB106、意図解釈DB107、および文字翻訳DB108を含み、その装置単体で機能するものであるが、これに限るものではない。これら各種DBは、ネットワークを介して接続されるサーバに備えられ、画像認識装置100bは、このサーバの各種DBにアクセスすることにより翻訳処理を行うようにしてもよい。
In the above-described embodiment and modification, the
図10は、その具体的な構成を示すブロック図である。図10に示される通り、画像認識装置100bは、ジェスチャー入力部101、翻訳エンジン部102、画像表示部109、および通信制御部110を含んで構成されている。翻訳エンジン部102は、上述実施形態と同様に、翻訳制御部103、パラメータ生成部104、および修正制御部105を含んで構成されている。
FIG. 10 is a block diagram showing a specific configuration thereof. As illustrated in FIG. 10, the
翻訳エンジン部102は、ジェスチャー入力部101から手話者の動作を含んだ画像データが入力されると、通信制御部110を介してサーバ200のジェスチャー認識DB206、意図解釈DB207、および文字認識DB208に対してアクセスして、翻訳処理を行う。
When the image data including the signer's action is input from the
画像表示部109は、翻訳エンジン部102により翻訳された翻訳結果を表示する。
The
修正処理を行う場合には、ジェスチャー入力部101は、再度手話者の動作を含んだ画像データを入力し、翻訳エンジン部102は、この画像データに対する翻訳処理を行う。
When performing the correction process, the
サーバ200は、ジェスチャー認識DB206、意図解釈DB207、および文字認識DB208を有しており、画像認識装置100bや、その他通信端末100x〜100zからの翻訳要求を受け付けた場合、各DBに対する参照を許可するように構成されている。
The
つぎに、本実施形態および各変形例における画像認識装置100、100a、および100bの作用効果について説明する。
Next, functions and effects of the
本実施形態の画像認識装置100によれば、翻訳制御部103は、ジェスチャー入力部101により入力された撮影対象の動作に対する翻訳を行うとともに、パラメータ生成部104は、修正指示前の動作パラメータである第1の動作パラメータを生成して、画像表示部109は翻訳結果を出力する。その後、ジェスチャー入力部101は、修正のための撮影対象の動作を含んだ画像データを再度取得する。そして、翻訳制御部103は、再度取得された撮影対象の動作に対する翻訳を行うとともに、パラメータ生成部104は、修正指示後の動作パラメータであって、再度取得された撮影対象の動作の第2の動作パラメータを生成する。
According to the
修正制御部105は、この第2の動作パラメータを、動作毎に定められた第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、第2の動作パラメータの動作の翻訳結果に置き換えて修正して、画像表示部109は、修正された翻訳結果を出力する。
The
これにより、修正対象を指定することなく、修正処理を行うことができる。特に、その修正対象を指定するための処理構成を備える必要がなく、その構成を簡易にするとともに、コストを低減することができる。 As a result, the correction process can be performed without specifying the correction target. In particular, it is not necessary to provide a processing configuration for designating the correction target, and the configuration can be simplified and the cost can be reduced.
なお、変形例における画像認識装置100aも同様の作用効果を奏する。
Note that the
また、本実施形態の画像認識装置100または変形例における画像認識装置100aによれば、翻訳制御部103は、撮影対象である手話者が修正指示を示す動作をした場合、それを認識すると、ジェスチャー入力部101は、修正のための画像データの取得処理を実行する。これにより、修正指示のためのボタンなどの物理的な構成を必要とすることなく、修正指示を実行することができる。さらに、動作により修正を指示するため、撮影対象が近くにいる必要がなく、その使い勝手をよくすることができる。
In addition, according to the
また、変形例の画像認識装置100aによれば、修正制御部105は、あらかじめ定めた条件を満たした場合、第2の動作パラメータを、動作毎に定められた第1の動作パラメータのそれぞれと比較することで、修正対象となる動作を把握することができる。よって、その条件を満たしていない場合には、比較処理を行わず、その結果、通常の翻訳処理を行うことになる。
Further, according to the
例えば、あらかじめ定めた条件として、翻訳結果の出力後、画像取得から第2の動作パラメータ生成までの時間が所定時間以内であることが考えられる。変形例における画像認識装置100aにおいて、タイマー105bが、その時間を計測し、修正制御部105aがタイマー105bによる計測時間が所定時間内であると判断する場合には、修正処理を実行する。
For example, as a predetermined condition, it is conceivable that the time from image acquisition to second operation parameter generation is within a predetermined time after the translation result is output. In the
すなわち、その動作に基づいた処理が所定時間以内、すなわちその動作が短い、ということは、一連の動作による意思伝達ではなく、ある一動作の修正をすることであると判断することができる。よって、そのような場合には、修正指示を判断し、修正対象のための各動作パラメータの比較処理を実行することで、その処理を自動的に行うことができる。 That is, if the processing based on the operation is within a predetermined time, that is, the operation is short, it can be determined that a certain operation is corrected rather than a communication of a series of operations. Therefore, in such a case, it is possible to automatically perform the process by determining the correction instruction and executing the comparison process of each operation parameter for the correction target.
なお、このあらかじめ定めた条件としては、上述の通りすべてを自動的に行うことのほか、修正指示は物理的なボタンや、タッチパネルのボタンなどによる指示を受け付けることもできる。 In addition to automatically performing all of the predetermined conditions as described above, the correction instruction can be an instruction using a physical button, a touch panel button, or the like.
また、本実施形態の画像認識装置100または変形例における画像認識装置100aによれば、パラメータ生成部104は、画像データの撮影対象の動作毎の、当該動作の始まりから終わりまでの時間を計測し、撮影対象の動作を示す動作パラメータに加えて、当該動作毎の時間を動作パラメータとして生成する。これにより、動作パラメータは動作のみならず、その動作を構成する時間を加味することができ、修正対象となる動作の一致度を判断する際に、より正確に行うことができる。
In addition, according to the
なお、上述は、画像認識装置100および100aについての作用効果について記載したが、画像認識装置100bにおいても、同様の作用効果を奏するものである。なお、画像認識装置100bにおいては、ネットワーク側に翻訳のためのデータベースを持たせるため、祖内側の負担を軽減することができる。
In the above description, the operational effects of the
100、100a、100b…画像認識装置、101…ジェスチャー入力部、102…翻訳エンジン部、103…翻訳制御部、104…パラメータ生成部、105…修正制御部、105a…修正制御部、105b…タイマー、109…画像表示部、110…通信制御部、106…ジェスチャー認識DB、107…意図解釈DB、108…文字翻訳DB、206…ジェスチャー認識DB、207…意図解釈DB、208…文字認識DB。
DESCRIPTION OF
Claims (7)
前記画像取得手段により取得された画像データに含まれる撮影対象の動作に対して、当該動作毎に翻訳を行う画像翻訳手段と、
前記画像取得手段により取得された画像データに含まれる撮影対象の動作を示す第1の動作パラメータを、前記動作毎に生成する生成手段と、
画像翻訳手段により翻訳された撮影対象の動作の翻訳結果を出力する結果出力手段と、
前記結果出力手段により出力された翻訳結果を修正する修正制御手段と、
を備え、
前記画像取得手段は、前記結果出力手段により翻訳結果が出力された後、修正のための撮影対象の動作を含んだ画像データを再度取得し、
前記画像翻訳手段は、前記画像取得手段により再度取得された撮影対象の動作に対する翻訳を行い、
前記生成手段は、前記画像取得手段により再度取得された撮影対象の動作の第2の動作パラメータを生成し、
前記修正制御手段は、前記第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、前記第2の動作パラメータの動作の翻訳結果に置き換えて修正し、
前記結果出力手段は、前記修正制御手段により修正された翻訳結果を出力する、
画像認識装置。 An image acquisition means for acquiring a shooting target as image data;
Image translation means for translating for each operation for the operation of the imaging target included in the image data acquired by the image acquisition means;
Generating means for generating, for each operation, a first operation parameter indicating an operation of an imaging target included in the image data acquired by the image acquisition unit;
A result output means for outputting a translation result of the movement of the photographing object translated by the image translation means;
Correction control means for correcting the translation result output by the result output means;
With
The image acquisition means, after the translation result is output by the result output means, acquires again the image data including the operation of the photographing target for correction,
The image translation means performs translation for the operation of the photographing target acquired again by the image acquisition means,
The generation unit generates a second operation parameter of the operation of the photographing target acquired again by the image acquisition unit,
The correction control means compares the second operation parameter with each of the first operation parameters determined for each operation, and the result of the comparison corresponds to the first operation parameter satisfying a predetermined condition. The translation result of the motion to be performed is replaced with the translation result of the motion of the second motion parameter, and corrected.
The result output means outputs the translation result corrected by the correction control means;
Image recognition device.
請求項1に記載の画像認識装置。 When the image translation means recognizes an operation indicating a correction instruction, the image acquisition means executes an image data acquisition process for correction,
The image recognition apparatus according to claim 1.
請求項1に記載の画像認識装置。 The image recognition device according to claim 1, wherein the correction control unit compares the second operation parameter with each of the first operation parameters determined for each operation when a predetermined condition is satisfied.
請求項3に記載の画像認識装置。 The correction control means has, as the predetermined condition, a time from the output of the translation result by the result output means to the second operation parameter generation by the image translation means within a predetermined time after the output of the translation result by the image acquisition means In the case where the first operation parameter is compared with the second operation parameter,
The image recognition apparatus according to claim 3.
請求項3に記載の画像認識装置。 The correction control means performs a comparison process between the first operation parameter and the second operation parameter when an operation for a correction instruction is received as the predetermined condition.
The image recognition apparatus according to claim 3.
前記生成手段は、撮影対象の動作を示す動作パラメータに加えて、前記動作毎の時間を動作パラメータとして生成する
請求項1から5のいずれか一項に記載の画像認識装置。 For each operation to be imaged of the image data acquired by the image acquisition means, further comprises a measuring means for measuring the time from the start to the end of the operation,
6. The image recognition apparatus according to claim 1, wherein the generation unit generates a time for each operation as an operation parameter in addition to an operation parameter indicating an operation to be photographed.
撮影対象を画像データにして取得する画像取得ステップと、
前記画像取得ステップにより取得された画像データに含まれる撮影対象の動作に対して、当該動作毎に翻訳を行う画像翻訳ステップと、
前記画像取得ステップにより取得された画像データに含まれる撮影対象の動作を示す第1の動作パラメータを、前記動作毎に生成する生成ステップと、
画像翻訳ステップにより翻訳された撮影対象の動作の翻訳結果を出力する結果出力ステップと、
前記結果出力ステップにより出力された翻訳結果を修正する修正制御ステップと、
を備え、
前記画像取得ステップは、前記結果出力ステップにより翻訳結果が出力された後、修正のための撮影対象の動作を含んだ画像データを再度取得し、
前記画像翻訳ステップは、前記画像取得ステップにより再度取得された撮影対象の動作に対する翻訳を行い、
前記生成ステップは、前記画像取得ステップにより再度取得された撮影対象の動作の第2の動作パラメータを生成し、
前記修正制御ステップは、前記第2の動作パラメータを、動作毎に定められた前記第1の動作パラメータのそれぞれと比較し、この比較の結果が所定の条件を満たした第1の動作パラメータに対応する動作の翻訳結果を、前記第2の動作パラメータの動作の翻訳結果に置き換えて修正し、
前記結果出力ステップは、前記修正制御ステップにより修正された翻訳結果を出力する、
画像認識方法。 In an image recognition device that recognizes the operation of a shooting target,
An image acquisition step of acquiring a shooting target as image data;
An image translation step for performing translation for each operation with respect to the operation of the imaging target included in the image data acquired by the image acquisition step;
A generation step of generating, for each operation, a first operation parameter indicating an operation of a photographing target included in the image data acquired by the image acquisition step;
A result output step for outputting the translation result of the motion of the object to be photographed translated by the image translation step;
A correction control step of correcting the translation result output by the result output step;
With
In the image acquisition step, after the translation result is output by the result output step, the image data including the operation of the photographing target for correction is acquired again,
The image translation step performs translation for the operation of the photographing target acquired again by the image acquisition step,
The generation step generates a second operation parameter of the operation of the imaging target acquired again by the image acquisition step,
The correction control step compares the second operation parameter with each of the first operation parameters determined for each operation, and the result of the comparison corresponds to the first operation parameter satisfying a predetermined condition. The translation result of the motion to be performed is replaced with the translation result of the motion of the second motion parameter, and corrected.
The result output step outputs the translation result corrected by the correction control step.
Image recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013214186A JP6177655B2 (en) | 2013-10-11 | 2013-10-11 | Image recognition apparatus and image recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013214186A JP6177655B2 (en) | 2013-10-11 | 2013-10-11 | Image recognition apparatus and image recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015075750A true JP2015075750A (en) | 2015-04-20 |
JP6177655B2 JP6177655B2 (en) | 2017-08-09 |
Family
ID=53000619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013214186A Active JP6177655B2 (en) | 2013-10-11 | 2013-10-11 | Image recognition apparatus and image recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6177655B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7264547B1 (en) | 2022-03-02 | 2023-04-25 | 株式会社ベネモ | Motion recognition method and motion recognition system |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06138815A (en) * | 1992-10-29 | 1994-05-20 | Hitachi Ltd | Finger language/word conversion system |
JPH06337628A (en) * | 1993-05-31 | 1994-12-06 | Hitachi Ltd | Sign language translation confirming device |
JPH06337627A (en) * | 1993-05-27 | 1994-12-06 | Hitachi Ltd | Sign language interpreting device |
JPH08115408A (en) * | 1994-10-19 | 1996-05-07 | Hitachi Ltd | Finger language recognition device |
JPH08328460A (en) * | 1995-05-30 | 1996-12-13 | Nec Off Syst Ltd | Sign language translating device |
JPH1026999A (en) * | 1996-07-10 | 1998-01-27 | Nec Shizuoka Ltd | Sign language translating device |
JP2000172163A (en) * | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
JP2003050663A (en) * | 2001-08-06 | 2003-02-21 | Hitachi Ltd | Sign language sentence recognizing device and user interface |
JP2012252581A (en) * | 2011-06-03 | 2012-12-20 | Kyushu Institute Of Technology | Sign language recognition method and apparatus thereof |
JP2013089238A (en) * | 2011-10-20 | 2013-05-13 | Fuji Xerox Co Ltd | Gesture processing program |
-
2013
- 2013-10-11 JP JP2013214186A patent/JP6177655B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06138815A (en) * | 1992-10-29 | 1994-05-20 | Hitachi Ltd | Finger language/word conversion system |
JPH06337627A (en) * | 1993-05-27 | 1994-12-06 | Hitachi Ltd | Sign language interpreting device |
JPH06337628A (en) * | 1993-05-31 | 1994-12-06 | Hitachi Ltd | Sign language translation confirming device |
JPH08115408A (en) * | 1994-10-19 | 1996-05-07 | Hitachi Ltd | Finger language recognition device |
JPH08328460A (en) * | 1995-05-30 | 1996-12-13 | Nec Off Syst Ltd | Sign language translating device |
JPH1026999A (en) * | 1996-07-10 | 1998-01-27 | Nec Shizuoka Ltd | Sign language translating device |
JP2000172163A (en) * | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
JP2003050663A (en) * | 2001-08-06 | 2003-02-21 | Hitachi Ltd | Sign language sentence recognizing device and user interface |
JP2012252581A (en) * | 2011-06-03 | 2012-12-20 | Kyushu Institute Of Technology | Sign language recognition method and apparatus thereof |
JP2013089238A (en) * | 2011-10-20 | 2013-05-13 | Fuji Xerox Co Ltd | Gesture processing program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7264547B1 (en) | 2022-03-02 | 2023-04-25 | 株式会社ベネモ | Motion recognition method and motion recognition system |
JP2023127994A (en) * | 2022-03-02 | 2023-09-14 | 株式会社ベネモ | Operation recognition method and operation recognition system |
Also Published As
Publication number | Publication date |
---|---|
JP6177655B2 (en) | 2017-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110036399B (en) | Neural network data entry system | |
JP2022003539A (en) | Method, apparatus, electronic device and storage medium for correcting text errors | |
US10678342B2 (en) | Method of virtual user interface interaction based on gesture recognition and related device | |
US9027837B2 (en) | Method of recognizing QR code in image data and apparatus and method for converting QR code in content data into touchable object | |
JP6709997B2 (en) | Translation device, translation system, and evaluation server | |
EP2870532A1 (en) | Generalization and/or specialization of code fragments | |
EP3702953B1 (en) | Electronic device for obfuscating and decoding data and method for controlling same | |
EP2940551A1 (en) | Method and device for implementing voice input | |
CN110750991B (en) | Entity identification method, device, equipment and computer readable storage medium | |
US20220139061A1 (en) | Model training method and apparatus, keypoint positioning method and apparatus, device and medium | |
US20200065370A1 (en) | Abbreviated handwritten entry translation | |
JP6275840B2 (en) | How to identify handwritten characters | |
CN113889074A (en) | Voice generation method, device, equipment and medium | |
US20170132462A1 (en) | Document checking support apparatus, document checking support system, and non-transitory computer readable medium | |
US11507181B2 (en) | Input apparatus having virtual keys set on reference plane | |
JP6177655B2 (en) | Image recognition apparatus and image recognition method | |
EP3358489A1 (en) | Biometric authentication apparatus, biometric authentication method, and non-transitory computer-readable storage medium for storing program for biometric authentication | |
CN112949261A (en) | Text restoration method and device and electronic equipment | |
RU2652457C2 (en) | Multi-touch input processing for selection of the displayed option | |
JP6209067B2 (en) | Image recognition apparatus and image recognition method | |
US11320914B1 (en) | Computer interaction method, device, and program product | |
US10127478B2 (en) | Electronic apparatus and method | |
CN113190160B (en) | Input error correction method, computing device and medium for analyzing hand tremor false touch | |
CN109766539B (en) | Standard word stock word segmentation method, device, equipment and computer readable storage medium | |
CN113228028A (en) | Translation device, translation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6177655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |