JP2011164694A - Device and method for support of standard operation execution - Google Patents

Device and method for support of standard operation execution Download PDF

Info

Publication number
JP2011164694A
JP2011164694A JP2010023329A JP2010023329A JP2011164694A JP 2011164694 A JP2011164694 A JP 2011164694A JP 2010023329 A JP2010023329 A JP 2010023329A JP 2010023329 A JP2010023329 A JP 2010023329A JP 2011164694 A JP2011164694 A JP 2011164694A
Authority
JP
Japan
Prior art keywords
unit
moving image
information
position information
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010023329A
Other languages
Japanese (ja)
Other versions
JP5177154B2 (en
Inventor
Nobushige Akeda
信重 明田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010023329A priority Critical patent/JP5177154B2/en
Publication of JP2011164694A publication Critical patent/JP2011164694A/en
Application granted granted Critical
Publication of JP5177154B2 publication Critical patent/JP5177154B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a standard operation execution support device for supporting an operator under operation to execute an operation following a standard operation procedure. <P>SOLUTION: A standard operation information memory 101 stores position information indicating the position of the hand of an operator following a standard operation procedure and time information indicating a timing in which the hand of the operator is present at the position indicated by the position information. An image analysis unit 102 generates position information indicating the position of the hand of the other operator. A difference calculation unit 103 calculates a difference between the position information stored in the standard operation information memory 101 and the position information generated by the image analysis unit 102. Also, the difference calculation unit 103 calculates a difference between the timing indicated by the time information stored in the standard operation information memory 101 and the timing in which the position information is generated by the image analysis unit 102. When the calculation result of the difference calculation unit 103 is larger than a predetermined value, a superimposition part 104 superimposes an image with a moving image, and makes a display unit display it. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、作業者による標準作業手順に従う作業の実行を支援するための標準作業実行支援装置、および標準作業実行支援方法に関する。   The present invention relates to a standard work execution support apparatus and a standard work execution support method for supporting the execution of work according to a standard work procedure by an operator.

製造業やサービス業などの企業には、作業者が正しい作業手順である標準作業手順を習得するために、標準作業手順をわかりやすく記載した手順書や、作業マニュアル、テキスト、写真等が用意されている。   Companies such as the manufacturing industry and the service industry are provided with procedure manuals, work manuals, texts, photographs, etc. that describe the standard work procedures in an easy-to-understand manner so that workers can learn the standard work procedures that are correct work procedures. ing.

また、作業者による作業を撮影して、標準作業手順に従う作業の実行を支援する場合がある。   Further, there is a case where the work performed by the worker is photographed to assist the execution of the work according to the standard work procedure.

特許文献1には、作業を撮影し、作業時間と標準作業時間とに差異が生じた場合に、管理者が異常状態の作業であると判断するシステムが記載されている。   Patent Document 1 describes a system in which an administrator determines that the work is in an abnormal state when the work is photographed and a difference occurs between the work time and the standard work time.

特許文献2には、作業者の作業を撮影した動画にもとづく作業者の所定の部位の位置の変化を示す入力パターンと、標準パターンとを比較するシステムが記載されている。   Patent Document 2 describes a system that compares an input pattern indicating a change in position of a predetermined part of an operator based on a moving image obtained by photographing an operator's work with a standard pattern.

特開2008−59322号公報(段落0014〜0038、図1)JP 2008-59322 A (paragraphs 0014 to 0038, FIG. 1) 特開2008−108008号公報(段落0041〜0113、図1)JP 2008-108008 (paragraphs 0041 to 0113, FIG. 1)

特許文献1に記載されているシステムでは、実際に作業を行っている作業者の作業状況を、管理者が保存された映像にもとづいて確認するので、作業者に対して作業中に改善すべき内容を伝達することは困難である。   In the system described in Patent Document 1, since the manager confirms the work status of the worker who is actually working based on the stored video, the worker should improve during the work. It is difficult to convey the content.

また、特許文献2に記載されているシステムでは、作業中に標準作業手順との差異を指摘することは考慮されていないので、誤った作業が行われるおそれがある。   Further, in the system described in Patent Document 2, it is not considered to point out a difference from the standard work procedure during the work, and thus there is a possibility that an erroneous work is performed.

そこで、本発明は、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援するための標準作業実行支援装置、および標準作業実行支援方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a standard work execution support device and a standard work execution support method for supporting a worker to perform a work according to a standard work procedure when the worker is working. .

本発明による標準作業実行支援装置は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部と、動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成する画像解析部と、標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで画像解析部が生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部が生成したタイミングとの差異を算出する差異算出部と、差異算出部の算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる重畳部とを備えたことを特徴とする。   The standard work execution support device according to the present invention includes position information indicating the position of the operator's hand in an image frame constituting a moving image of work according to the standard work procedure, and time information indicating timing at which the hand is at the position indicated by the position information. And a position information indicating the position of the hand of the other worker in the image frame constituting the moving image of the work performed by the other worker taken by the moving image photographing unit. The image analysis unit generates the image analysis unit, the position indicated by the position information corresponding to the time information stored in the standard work information storage unit, and the timing indicated by the time information in the moving image shot by the moving image shooting unit. The time information corresponding to the position information stored in the standard work information storage unit and the difference from the position indicated by the position information The difference calculation unit calculates a difference between the timing indicated by the image analysis unit and the timing at which the image analysis unit generates position information indicating a position matching the position indicated by the position information based on the moving image shot by the moving image shooting unit When the calculation result of the difference calculation unit is larger than a predetermined value, the image corresponding to the position information or time information stored in the standard work information storage unit is superimposed on the moving image shot by the moving image shooting unit. And a superimposing unit to be displayed on the display means.

本発明による標準作業実行支援方法は、動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成し、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を生成したタイミングとの差異を算出し、算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させることを特徴とする。   The standard work execution support method according to the present invention generates position information indicating the position of the hand of another worker in an image frame constituting a moving image of the work performed by another worker taken by the moving image photographing unit, and performs a standard work procedure. The standard work information storage unit that stores in advance the position information indicating the position of the operator's hand in the image frame constituting the moving image of the work according to the time information indicating the timing at which the hand is at the position indicated by the position information The difference between the position indicated by the position information corresponding to the time information stored in the position information and the position indicated by the position information generated at the timing indicated by the time information in the moving image captured by the moving image capturing unit, and the standard work information The timing indicated by the time information corresponding to the position information stored in the storage unit and the video shooting unit Based on the recorded moving image, a difference from the timing at which position information indicating a position matching the position indicated by the position information is generated is calculated, and when the calculation result is larger than a predetermined value, the moving image shooting unit captures the difference. An image corresponding to the position information or time information stored in the standard work information storage unit is superimposed on the moving image and displayed on the display means.

本発明によれば、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can assist performing an operation | work according to a standard operation | work procedure, when an operator is working.

本発明の実施形態の標準作業実行支援装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the standard work execution assistance apparatus of embodiment of this invention. 本発明の実施形態の標準作業実行支援装置が、作業の熟練者である作業者Aによる標準作業手順に従う作業にもとづく動画データ、位置情報および時間情報を生成する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which produces | generates the moving image data based on the standard work procedure by the worker A who is an expert of work, the positional information, and the time information by the standard work execution assistance apparatus of embodiment of this invention. 画像解析部が、作業者Aの手の位置を検出する例を示す説明図である。It is explanatory drawing which shows the example in which an image analysis part detects the position of the hand of the worker A. 動画に重ね合わせて動画表示部に表示させる画像の例を示す説明図である。It is explanatory drawing which shows the example of the image superimposed on a moving image and displayed on a moving image display part. 作業者Aによる標準作業手順に従う作業の進行に応じて動画表示部に重畳表示される画像の例を示す説明図である。It is explanatory drawing which shows the example of the image superimposed and displayed on a moving image display part according to progress of the work according to the standard work procedure by the worker A. 本発明による標準作業実行支援装置が作業者Bに指示する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the worker B instruct | indicates by the standard work execution assistance apparatus by this invention. 作業者Aによる標準作業手順に従う作業と作業者Bの作業とを示す説明図である。It is explanatory drawing which shows the operation | work according to the standard operation procedure by the worker A, and the operation | work of the worker B. 作業者Aによる標準作業手順に従う作業工程1の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程1の作業中に動画表示部に表示される画像の例とを示す説明図である。An example of an image displayed on the moving image display unit during the work process 1 according to the standard work procedure by the worker A and an example of an image displayed on the moving image display unit during the work process 1 by the worker B It is explanatory drawing shown. 作業者Aによる標準作業手順に従う作業工程2の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程2の作業中に動画表示部に表示される画像の例とを示す説明図である。An example of an image displayed on the moving image display unit during the work step 2 according to the standard work procedure by the worker A and an example of an image displayed on the moving image display unit during the work step 2 by the worker B It is explanatory drawing shown. 本発明の概要を示すブロック図である。It is a block diagram which shows the outline | summary of this invention.

本発明による標準作業実行支援装置の実施形態について、図面を参照して説明する。図1は、本発明の実施形態の標準作業実行支援装置の構成例を示すブロック図である。   An embodiment of a standard work execution support apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of a standard work execution support apparatus according to an embodiment of the present invention.

図1に示すように、本発明の実施形態の標準作業実行支援装置は、画像解析部11、手型認識部12、描画読出部15、動画読出部16、実行管理部18、音声認識部20、および文字読出部22を含む。   As shown in FIG. 1, the standard work execution support apparatus of the embodiment of the present invention includes an image analysis unit 11, a hand type recognition unit 12, a drawing reading unit 15, a moving image reading unit 16, an execution management unit 18, and a voice recognition unit 20. , And a character reading unit 22.

画像解析部11は、撮影機能を有するビデオカメラである画像入力部10が作業を撮影した動画を構成する各画像フレームの時間と各画像フレームの画像における所定の箇所の位置とを解析する機能を有する。そして、解析結果の位置を示す位置情報と時間を示す時間情報とを生成して出力する機能を有する。なお、各画像フレームの画像における所定の箇所の位置は、例えば、各画像フレームの画像における作業者の手の中心の位置(以下、単に手の位置という)である。また、各画像フレームの時間は、作業が開始されてから各画像フレームの画像が撮影されるまでに経過した時間である。   The image analysis unit 11 has a function of analyzing the time of each image frame and the position of a predetermined location in the image of each image frame constituting the moving image in which the image input unit 10, which is a video camera having a shooting function, has photographed the work. Have. And it has the function which produces | generates and outputs the positional information which shows the position of an analysis result, and the time information which shows time. Note that the position of the predetermined portion in the image of each image frame is, for example, the position of the center of the operator's hand in the image of each image frame (hereinafter simply referred to as the hand position). The time of each image frame is the time elapsed from the start of work until the image of each image frame is taken.

手型認識部12は、手足の動きを計測してジェスチャ認識を行う方法を用いて、所定の手の動きであるジェスチャを認識し、認識したジェスチャを示す情報と、動画を構成する画像フレームのうち、ジェスチャが撮影されている画像フレームの時間を示す時間情報と、予め設定された座標軸にもとづいてジェスチャが行われた手の位置を示す位置情報とを出力する機能を有する。なお、手型認識部12には、画像入力部10が撮影した動画が画像解析部11を介して入力され、手型認識部12は、ジェスチャが当該動画における複数の画像フレームに亘って撮影されている場合に、例えば、当該ジェスチャが最初に撮影された画像フレームの時間を示す時間情報を出力する。   The hand-type recognizing unit 12 recognizes a gesture that is a predetermined hand movement by using a method of performing gesture recognition by measuring the movement of the limbs, information indicating the recognized gesture, and an image frame constituting the moving image. Among these, there is a function of outputting time information indicating the time of the image frame in which the gesture is photographed and position information indicating the position of the hand on which the gesture is performed based on a preset coordinate axis. Note that the moving image captured by the image input unit 10 is input to the hand recognition unit 12 via the image analysis unit 11, and the hand recognition unit 12 captures a gesture over a plurality of image frames in the moving image. For example, time information indicating the time of the image frame in which the gesture is first photographed is output.

なお、ジェスチャ認識については、以下に示す参考文献1,2に記載されている。
参考文献1:特許第3144400号公報
参考文献2:特許第3863809号公報
Gesture recognition is described in the following references 1 and 2.
Reference 1: Japanese Patent No. 3144400 Reference 2: Japanese Patent No. 3863809

描画記憶部13には、予めジェスチャに対応した静止画データを記憶されている。描画記憶部13に記憶されている静止画データは描画読出部15によって読み出される。なお、描画記憶部13に記憶されている静止画データは、例えば、図形の静止画データや、文字の静止画データである。   The drawing storage unit 13 stores still image data corresponding to the gesture in advance. The still image data stored in the drawing storage unit 13 is read by the drawing reading unit 15. Note that the still image data stored in the drawing storage unit 13 is, for example, graphic still image data or text still image data.

動画記憶部14には、画像入力部10が撮影した動画の動画データが一時的に保存される。また、動画記憶部14には、画像入力部10が撮影した動画に静止画データにもとづく画像を当該動画の一部として重ね合わせて表示するための動画データが保存される。   The moving image storage unit 14 temporarily stores moving image data of a moving image taken by the image input unit 10. The moving image storage unit 14 stores moving image data for displaying an image based on the still image data superimposed on the moving image captured by the image input unit 10 as a part of the moving image.

描画読出部15は、手型認識部12が認識したジェスチャに対応する静止画データを描画記憶部13から読み出す機能を有する。また、描画読出部15は、実行管理部18の要求に応じて、描画記憶部13から静止画データを読み出す機能を有する。   The drawing reading unit 15 has a function of reading still image data corresponding to the gesture recognized by the hand recognition unit 12 from the drawing storage unit 13. The drawing reading unit 15 has a function of reading still image data from the drawing storage unit 13 in response to a request from the execution management unit 18.

動画読出部16は、動画記憶部14に記憶された動画データを読み出し、動画を表示するディスプレイである動画表示部17に、動画データにもとづく動画に静止画データにもとづく画像を重ね合わせて表示させる機能、すなわち、動画データにもとづく動画に静止画データにもとづく画像を重畳表示させる機能を備えている。   The moving image reading unit 16 reads the moving image data stored in the moving image storage unit 14 and causes the moving image display unit 17, which is a display for displaying moving images, to display the moving image based on the moving image data and the image based on the still image data. A function, that is, a function of superimposing and displaying an image based on still image data on a moving image based on moving image data is provided.

なお、動画表示部17は、標準作業や作業者自身の作業状況を作業中に確認するために、作業者の頭部付近に装着されるディスプレイであるヘッドマウントディスプレイであることが望ましいが、作業者が作業中に確認できる位置に固定されたディスプレイであってもよい。   The moving image display unit 17 is preferably a head-mounted display that is a display mounted near the head of the worker in order to confirm the standard work or the work status of the worker during the work. It may be a display fixed at a position that can be confirmed by a person during work.

音声認識部20は、マイクロフォンである音声入力部19に入力された音声を認識して文字情報に変換する機能を有する。つまり、音声入力部19に入力された音声にもとづく文字データを生成する機能を有する。文字記憶部21には、音声入力部19に音声が入力されたタイミングを示す時間情報と、音声認識部20によって入力された音声が変換された文字情報とが対応付けられて記憶される。音声入力部19に音声が入力されたタイミングは、例えば、作業が開始されてから音声が入力されるまでに経過した時間である。なお、文字記憶部21には、音声入力部19に音声が入力されたタイミングで画像解析部11が生成した位置情報が文字情報および時間情報に対応付けられて記憶されてもよい。   The voice recognition unit 20 has a function of recognizing the voice input to the voice input unit 19 that is a microphone and converting it into character information. That is, it has a function of generating character data based on the voice input to the voice input unit 19. In the character storage unit 21, time information indicating the timing when the voice is input to the voice input unit 19 and character information obtained by converting the voice input by the voice recognition unit 20 are stored in association with each other. The timing at which the voice is input to the voice input unit 19 is, for example, the time elapsed from when the work is started until the voice is input. The character storage unit 21 may store the position information generated by the image analysis unit 11 at the timing when the voice is input to the voice input unit 19 in association with the character information and the time information.

文字読出部22は、音声認識部20によって文字記憶部21に記憶された文字情報を読み出して動画読出部16に入力する機能を有する。また、文字読出部22は、当該文字情報に対応付けられて文字記憶部21に記憶された時間情報とともに、当該文字情報に応じた音声が音声入力部19に入力したタイミングにおいて画像解析部11が生成した作業者の手の位置を示す位置情報を実行管理部18に入力する機能を有する。文字読出部22は、実行管理部18の要求に応じて、文字記憶部21から文字情報を読み出して動画読出部16に文字情報を入力する機能を有する。   The character reading unit 22 has a function of reading the character information stored in the character storage unit 21 by the voice recognition unit 20 and inputting it to the moving image reading unit 16. In addition, the character reading unit 22 has the time information stored in the character storage unit 21 associated with the character information and the image analysis unit 11 at the timing when the sound corresponding to the character information is input to the voice input unit 19. It has a function of inputting the generated position information indicating the position of the operator's hand to the execution management unit 18. The character reading unit 22 has a function of reading character information from the character storage unit 21 and inputting the character information to the moving image reading unit 16 in response to a request from the execution management unit 18.

実行管理部18は、手型認識部12が出力した標準作業手順に従う各作業における位置情報および時間情報を記憶する機能と、文字読出部22が出力した位置情報および時間情報を記憶する機能とを有する。そして、記憶している標準作業手順に従う位置情報によって示される位置および時間情報によって示される時間と、画像入力部10によって撮影された動画にもとづいて画像解析部11が生成した位置情報によって示される位置および時間情報によって示される時間とを比較し、比較結果を示す差分情報を描画読出部15や文字読出部22に入力する機能を有する。なお、実行管理部18は、手型認識部12が出力した位置情報および時間情報と、文字読出部22が出力した位置情報および時間情報とを区別して記憶してもよい。   The execution management unit 18 has a function of storing position information and time information in each work according to the standard work procedure output by the hand type recognition unit 12, and a function of storing position information and time information output by the character reading unit 22. Have. Then, the position indicated by the position information according to the stored standard work procedure and the time indicated by the time information, and the position indicated by the position information generated by the image analysis unit 11 based on the moving image photographed by the image input unit 10 And the time indicated by the time information, and has a function of inputting the difference information indicating the comparison result to the drawing reading unit 15 and the character reading unit 22. The execution management unit 18 may store the position information and time information output from the hand recognition unit 12 and the position information and time information output from the character reading unit 22 separately.

次に、本発明による標準作業実行支援装置の動作について、図面を参照して説明する。図2は、本発明の実施形態の標準作業実行支援装置が、作業の熟練者である作業者Aによる標準作業手順に従う作業にもとづく動画データ、位置情報および時間情報を生成する動作を示すフローチャートである。   Next, the operation of the standard work execution support apparatus according to the present invention will be described with reference to the drawings. FIG. 2 is a flowchart showing an operation in which the standard work execution support apparatus according to the embodiment of the present invention generates moving image data, position information, and time information based on a work in accordance with a standard work procedure by a worker A who is a skilled worker. is there.

ビデオカメラである画像入力部10が作業者Aの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、動画記憶部14に記憶された動画データを動画表示部17に入力する。動画表示部17には、入力された動画データにもとづく動画が表示される。   An image input unit 10, which is a video camera, is mounted near the head of the worker A and photographs the situation in which the worker is working. The moving image data of the moving image captured by the image input unit 10 is stored in the moving image storage unit 14. The moving image reading unit 16 inputs the moving image data stored in the moving image storage unit 14 to the moving image display unit 17. The moving image display unit 17 displays a moving image based on the input moving image data.

画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Aの手の位置情報と時間情報とを生成する(ステップS10)。図3は、画像解析部11が、作業者Aの手の位置を検出する例を示す説明図である。図3に示す例では、画像の左上端を基点(0,0)とし、横軸をX座標(0≦x≦320)とし、縦軸をY座標(0≦y≦240)としている。そして、図3に示す例では、画像解析部11は、手の位置は、(30,200)であることを検出し、(30,200)を示す位置情報と、手の位置が(30,200)であることを検出したときの時間を示す時間情報とを生成する。   The image analysis unit 11 generates the position information and time information of the hand of the worker A based on the moving image captured by the image input unit 10 (step S10). FIG. 3 is an explanatory diagram illustrating an example in which the image analysis unit 11 detects the position of the hand of the worker A. In the example shown in FIG. 3, the upper left corner of the image is the base point (0, 0), the horizontal axis is the X coordinate (0 ≦ x ≦ 320), and the vertical axis is the Y coordinate (0 ≦ y ≦ 240). In the example illustrated in FIG. 3, the image analysis unit 11 detects that the hand position is (30, 200), and the position information indicating (30, 200) and the hand position are (30, 200). 200), time information indicating the time when it is detected is generated.

例えば、作業中に図形で作業者に指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら描画入力のタイミングで自分の手で所定のジェスチャを行ったときには、画像解析部11によって、作業においてジェスチャが撮影された画像フレームの時間を示す時間情報と当該フレームの画像においてジェスチャが行われた手の位置座標を示す位置情報とが手型認識部12に入力される。   For example, when it is necessary to give an instruction to the worker with a figure during work, when the worker A performs a predetermined gesture with his / her hand at the timing of drawing input while looking at the screen of the moving image display unit 17, The image analysis unit 11 inputs time information indicating the time of the image frame in which the gesture was photographed in the work and position information indicating the position coordinates of the hand where the gesture was performed in the image of the frame to the hand type recognition unit 12. The

手型認識部12は、手の3次元座標を計測してジェスチャ認識を行う(ステップS11のY)。手型認識部12は、ジェスチャ認識の結果と位置情報と時間情報とを描画読出部15に入力する。   The hand type recognition unit 12 performs gesture recognition by measuring the three-dimensional coordinates of the hand (Y in step S11). The hand recognition unit 12 inputs the result of gesture recognition, position information, and time information to the drawing reading unit 15.

描画読出部15は、手型認識部12が入力したジェスチャ認識の結果に応じた静止画データを描画記憶部13から読み出す(ステップS13)。なお、描画読出部15は、描画記憶部13に記憶されている当該静止画データに対応付けて、手型認識部12が入力した位置情報と時間情報とを描画記憶部13に記憶させてもよい。動画読出部16は、動画記憶部14に記憶されている動画データにもとづく動画に描画読出部15が描画記憶部13から読み出した静止画データにもとづく画像を重ね合せて、動画表示部17に表示させる(ステップS14)。   The drawing reading unit 15 reads still image data corresponding to the result of the gesture recognition input by the hand recognition unit 12 from the drawing storage unit 13 (step S13). The drawing reading unit 15 may cause the drawing storage unit 13 to store the position information and time information input by the hand recognition unit 12 in association with the still image data stored in the drawing storage unit 13. Good. The moving image reading unit 16 superimposes an image based on the still image data read from the drawing storage unit 13 by the drawing reading unit 15 on the moving image based on the moving image data stored in the moving image storage unit 14 and displays it on the moving image display unit 17. (Step S14).

図4は、動画に重ね合わせて動画表示部17に表示させる画像の例を示す説明図である。図4(a)に示す例では、作業者Aによって人差し指を立てるジェスチャが行われている。そして、図4(b)に示す例では、描画読出部15が、人差し指を立てるジェスチャに対応付けられた静止画データである矢印の静止画データを描画記憶部13から読み出し、動画読出部16が、動画を構成する各画像フレームの画像における手の位置(具体的には、例えば、画像解析部11が生成した位置情報によって示される位置)に応じた位置(画像解析部11が生成した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、図4(b)に示す例では指先の位置に相当する位置)に当該静止画データにもとづく画像を重ね合わせて動画表示部17に表示させている。なお、手型認識部12は、ジェスチャが行われた場合に指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、静止画データにもとづく画像を動画表示部17に重畳表示させる位置を決定してもよい。   FIG. 4 is an explanatory diagram illustrating an example of an image displayed on the moving image display unit 17 so as to be superimposed on the moving image. In the example shown in FIG. 4A, a gesture for raising the index finger by the worker A is performed. In the example shown in FIG. 4B, the drawing reading unit 15 reads still image data indicated by an arrow, which is still image data associated with the gesture of raising the index finger, from the drawing storage unit 13, and the moving image reading unit 16 The position (position information generated by the image analysis unit 11) corresponding to the position of the hand (specifically, for example, the position indicated by the position information generated by the image analysis unit 11) in the image of each image frame constituting the moving image. 4 is superimposed on the image based on the still image data at a position away from the position indicated by a predetermined distance in the predetermined direction and corresponding to the position of the fingertip in the example shown in FIG. 4B. This is displayed on the unit 17. The hand recognition unit 12 generates position information indicating the position of the fingertip when a gesture is performed, and the moving image reading unit 16 is based on the position information indicating the position of the fingertip generated by the hand recognition unit 12. Thus, the position at which the image based on the still image data is displayed on the moving image display unit 17 may be determined.

手型認識部12は、ジェスチャが撮影された画像フレームの時間情報とジェスチャが行われた手の位置を示す位置情報とを実行管理部18に入力する。実行管理部18は、入力された時間情報と位置情報とを対応付けて記憶する(ステップS17)。なお、実行管理部18は、手型認識部12が入力した時間情報および位置情報と、描画読出部15が描画記憶部13から読み出した静止画データとを対応付けて記憶してもよい。   The hand type recognition unit 12 inputs time information of an image frame in which the gesture is photographed and position information indicating the position of the hand where the gesture is performed to the execution management unit 18. The execution management unit 18 stores the input time information and position information in association with each other (step S17). The execution management unit 18 may store the time information and position information input by the hand type recognition unit 12 and the still image data read from the drawing storage unit 13 by the drawing reading unit 15 in association with each other.

また、例えば、作業中に文字で指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら、作業手順や作業の注意点に関する文字入力のタイミングで、当該作業者Aの頭部に装着された音声入力部19に音声を入力する。   In addition, for example, when it is necessary to give an instruction by characters during work, the worker A looks at the screen of the moving image display unit 17 and at the timing of character input related to the work procedure or work precautions. A voice is input to the voice input unit 19 attached to the head of A.

音声認識部20は、音声入力部19に音声が入力された場合に(ステップS12のY)、音声入力部19に入力された音声を認識して文字情報に変換し(ステップS15)、変換後の文字情報と、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報と、音声入力部19に音声が入力されたときの位置を示す位置情報とを対応付けて文字記憶部22に記憶させる。   When speech is input to the speech input unit 19 (Y in step S12), the speech recognition unit 20 recognizes the speech input to the speech input unit 19 and converts it into character information (step S15). Is stored in association with the character information, the time information indicating the time corresponding to the timing when the voice is input to the voice input unit 19, and the position information indicating the position when the voice is input to the voice input unit 19. Store in the unit 22.

なお、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報は、例えば、音声入力部19に音声が入力されたときに動画表示部17に表示されている画像フレームの時間情報である。また、音声入力部19に音声が入力されたときの位置を示す位置情報は、例えば、音声入力部19に音声が入力されたときに画像解析部11によって生成された位置情報である。   Note that the time information indicating the time corresponding to the timing when the sound is input to the sound input unit 19 is, for example, the time of the image frame displayed on the moving image display unit 17 when the sound is input to the sound input unit 19. Information. The position information indicating the position when the voice is input to the voice input unit 19 is, for example, the position information generated by the image analysis unit 11 when the voice is input to the voice input unit 19.

そして、動画読出部16は、画像入力部10が撮影した動画に文字情報にもとづく文字を重ね合わせて動画表示部17に表示させる(ステップS16)。なお、動画読出部16が動画表示部17に表示される動画において、文字を重畳表示させる位置は、文字読出部22が文字記憶部21から読み出した位置情報によって示される位置に応じた位置(文字記憶部21から読み出した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、例えば、作業者Aの指先の位置に相当する位置)である。なお、手型認識部12は、音声入力部19に音声が入力された場合に、ジェスチャが行われたときに指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、文字情報にもとづく文字を動画表示部17に重畳表示させる位置を決定してもよい。   Then, the moving image reading unit 16 superimposes characters based on the character information on the moving image captured by the image input unit 10 and causes the moving image display unit 17 to display the superimposed characters (step S16). In the moving image displayed on the moving image display unit 17 by the moving image reading unit 16, the position where the character is superimposed and displayed is a position corresponding to the position indicated by the position information read from the character storage unit 21 by the character reading unit 22 (character A position that is a predetermined distance away from the position indicated by the position information read from the storage unit 21 in a predetermined direction, for example, a position corresponding to the position of the fingertip of the worker A). The hand recognition unit 12 generates position information indicating the position of the fingertip when a gesture is performed when a voice is input to the voice input unit 19, and the moving image reading unit 16 On the basis of the position information indicating the position of the fingertip generated by 12, the position where the character based on the character information is superimposed and displayed on the moving image display unit 17 may be determined.

文字読出部22は、文字記憶部21に記憶された時間情報、および位置情報を実行管理部18に入力する。実行管理部18は、入力された時間情報、および位置情報を対応付けて記憶する(ステップS17)。なお、文字読出部22は、時間情報、および位置情報を実行管理部18に送信する場合に、文字記憶部21に当該時間情報および位置情報に対応付けられて記憶された文字情報を実行管理部18に入力してもよく、実行管理部18は、文字読出部22が入力した時間情報、位置情報および文字情報を対応付けて記憶してもよい。   The character reading unit 22 inputs the time information and the position information stored in the character storage unit 21 to the execution management unit 18. The execution management unit 18 stores the input time information and position information in association with each other (step S17). When the character reading unit 22 transmits time information and position information to the execution management unit 18, the character reading unit 22 stores character information stored in the character storage unit 21 in association with the time information and position information. The execution management unit 18 may store the time information, the position information, and the character information input by the character reading unit 22 in association with each other.

図4(c),(d)に示す例では、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、音声認識部20によって文字情報に変換された「三カ所グリスを注入」という文字が音声入力されたときの手の位置に応じた位置に表示されている。   In the example shown in FIGS. 4C and 4D, since the voice “Inject three places of grease” is input to the voice input unit 19, the “three places of grease” converted into the character information by the voice recognition unit 20. "Inject" is displayed at a position corresponding to the position of the hand when the voice is input.

図5は、作業者Aによる標準作業手順に従う作業の進行に応じて動画表示部17に重畳表示される画像の例を示す説明図である。図5に示す例では、作業工程1が、時間「0:00:00」に開始され、「0:01:30」に終了している。また、作業工程2が、時間「0:01:45」に開始され、「0:03:00」に終了している。そして、作業工程1および作業工程2の開始時および終了時に、作業者Aによって人差し指を立てるジェスチャが行われ、当該ジェスチャに応じた画像である矢印が動画表示部17に表示されることが示されている。   FIG. 5 is an explanatory diagram illustrating an example of an image that is superimposed and displayed on the moving image display unit 17 in accordance with the progress of work according to the standard work procedure by the worker A. In the example illustrated in FIG. 5, the work process 1 starts at time “00:00” and ends at “0: 1: 30”. In addition, work process 2 starts at time “0:01:45” and ends at “0:03:00”. Then, at the start and end of the work process 1 and the work process 2, a gesture of raising the index finger is performed by the worker A, and an arrow that is an image corresponding to the gesture is displayed on the moving image display unit 17. ing.

また、図5に示す例では、作業工程1の開始時(時間「0:00:00」)の手の位置は(20,50)であり、時間「0:00:30」に、手の位置(30,200)で、グリス注入の作業が開始されて、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、動画表示部17に、「三カ所グリスを注入」という文字が重畳表示される。そして、作業工程1の終了時(時間「0:01:30」)の手の位置は、(120,100)である。   In the example shown in FIG. 5, the position of the hand at the start of work process 1 (time “00:00”) is (20, 50), and at time “00:00:30” At the position (30, 200), the work of injecting the grease is started, and the voice “injecting three places of grease” is inputted to the voice input section 19, so that “three places of grease is injected into the moving picture display section 17”. "Is superimposed and displayed. Then, the position of the hand at the end of the work process 1 (time “0:01:30”) is (120, 100).

また、図5に示す例では、作業工程2の開始時(時間「0:01:45」)の手の位置は、(50,50)であり、時間「0:02:15」に、手の位置(200,200)で、切断の作業が開始されて、音声入力部19に、「右側先端部カット」という音声が入力されたので、動画表示部17に、「右側先端部カット」という文字が表示される。そして、作業工程2の終了時(時間「0:03:00」)の手の位置は(300,200)である。   In the example shown in FIG. 5, the position of the hand at the start of work process 2 (time “0:01:45”) is (50, 50), and at time “0:02:15” Since the cutting operation is started at the position (200, 200) and the voice “cutting the right tip” is input to the voice input unit 19, the “right tip cutting” is displayed on the moving image display unit 17. Characters are displayed. The position of the hand at the end of the work process 2 (time “0:03:00”) is (300, 200).

次に、本発明による標準作業実行支援装置が、生成した位置情報および時間情報にもとづいて作業者に指示する動作について、図面を参照して説明する。図6は、本発明による標準作業実行支援装置が作業者Bに指示する動作を示すフローチャートである。   Next, an operation in which the standard work execution support apparatus according to the present invention instructs the worker based on the generated position information and time information will be described with reference to the drawings. FIG. 6 is a flowchart showing an operation instructed to the worker B by the standard work execution support apparatus according to the present invention.

ビデオカメラである画像入力部10が作業者Bの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、画像入力部10が撮影した動画を動画表示部17に入力する。動画表示部17には、入力された動画が表示される。   An image input unit 10, which is a video camera, is mounted near the head of the worker B and photographs the situation in which the worker is working. The moving image data of the moving image captured by the image input unit 10 is stored in the moving image storage unit 14. The moving image reading unit 16 inputs the moving image captured by the image input unit 10 to the moving image display unit 17. The moving image display unit 17 displays the input moving image.

画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Bの手の位置情報と時間情報とを生成する(ステップS20)。   The image analysis unit 11 generates position information and time information of the hand of the worker B based on the moving image captured by the image input unit 10 (step S20).

手型認識部12は、画像解析部11が生成した位置情報と時間情報とを実行管理部18に入力する。実行管理部18は、手型認識部12が入力した位置情報および時間情報と、記憶している位置情報および時間情報とをそれぞれ比較し(ステップS21)、差分を算出する。   The hand type recognition unit 12 inputs the position information and time information generated by the image analysis unit 11 to the execution management unit 18. The execution management unit 18 compares the position information and time information input by the hand recognition unit 12 with the stored position information and time information (step S21), and calculates a difference.

具体的には、実行管理部18は、例えば、記憶している位置情報によって示される位置に合致する位置を示す位置情報が入力された場合に、記憶している位置情報に対応付けて記憶している時間情報によって示される時間と、入力された時間情報によって示される時間との差分を算出する。また、実行管理部18は、例えば、記憶している時間情報によって示される時間に合致する時間を示す時間情報が入力された場合に、記憶している時間情報に対応付けて記憶している位置情報によって示される位置と、入力された位置情報によって示される位置との差分を算出する。   Specifically, for example, when position information indicating a position matching the position indicated by the stored position information is input, the execution management unit 18 stores the position information in association with the stored position information. The difference between the time indicated by the current time information and the time indicated by the input time information is calculated. Further, for example, when time information indicating a time that matches a time indicated by the stored time information is input, the execution management unit 18 stores the position in association with the stored time information. The difference between the position indicated by the information and the position indicated by the input position information is calculated.

そして、実行管理部18は、算出した差分が所定の値を超えている場合に、当該差分を示す差分情報を描画読出部15、および文字読出部22に入力して、動画に重畳表示させる画像に応じたデータの読み出しを要求する。なお、実行管理部18は、差分情報とともに、ステップS21の処理で比較に用いた記憶している位置情報や時間情報を描画読出部15や文字読出部22に入力してもよい。   Then, when the calculated difference exceeds a predetermined value, the execution management unit 18 inputs the difference information indicating the difference to the drawing reading unit 15 and the character reading unit 22 and displays the superimposed information on the moving image. It requests to read data according to The execution management unit 18 may input the position information and time information stored for comparison in the process of step S21 together with the difference information to the drawing reading unit 15 and the character reading unit 22.

また、実行管理部18は、位置情報および時間情報を出力元に応じて区別して記憶している場合に、出力元に応じて、情報の入力先を決定してもよい。具体的には、例えば、ステップS21の処理で手型認識部12が入力した位置情報および時間情報と比較した位置情報および時間情報が手型認識部12によって入力されて記憶していた場合には、情報を描画読出部15に入力し、文字読出部22によって入力されて記憶していた場合には、情報を文字読出部22に入力すると決定してもよい。   Further, the execution management unit 18 may determine the information input destination according to the output source when the position information and the time information are distinguished and stored according to the output source. Specifically, for example, when the position information and time information compared with the position information and time information input by the hand type recognition unit 12 in the process of step S21 are input and stored by the hand type recognition unit 12 If the information is input to the drawing reading unit 15 and is input and stored by the character reading unit 22, the information may be determined to be input to the character reading unit 22.

描画読出部15は、描画記憶部13から静止画データを読み出す。また、文字読出部22は、文字記憶部21から文字情報を読み出す(ステップS23)。なお、描画読出部15が描画記憶部13から読み出す静止画データは、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた静止画データである。また、文字読出部22が文字記憶部21から読み出す文字情報は、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた文字情報である。   The drawing reading unit 15 reads still image data from the drawing storage unit 13. The character reading unit 22 reads character information from the character storage unit 21 (step S23). Note that the still image data read by the drawing reading unit 15 from the drawing storage unit 13 is, for example, still image data associated with position information and time information input together with the difference information. Moreover, the character information which the character reading part 22 reads from the character memory | storage part 21 is character information matched with the positional information and time information input with difference information, for example.

動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データまたは文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字を動画に重ね合わせて動画表示部17に表示させる(ステップS24)。   The moving image reading unit 16 superimposes the still image data read from the drawing storage unit 13 by the drawing reading unit 15 or the character information based on the character information read from the character storage unit 21 by the character reading unit 22 on the moving image display unit 17. It is displayed (step S24).

実行管理部18は、作業が終了した場合に(ステップS25のY)、ステップS21の処理で比較した結果にもとづいて、差分が標準範囲内である場合に標準作業が実行されたと判定し、差分が標準範囲外である場合に標準作業が実行されていないと判定する(ステップS26)。   When the work is completed (Y in step S25), the execution management unit 18 determines that the standard work has been executed when the difference is within the standard range based on the result of the comparison in step S21. Is outside the standard range, it is determined that the standard work has not been executed (step S26).

図7は、作業者Aによる標準作業手順に従う作業と作業者Bの作業とを示す説明図である。図8は、作業者Aによる標準作業手順に従う作業工程1の作業中に動画表示部17に表示される画像の例と、作業者Bによる作業工程1の作業中に動画表示部17に表示される画像の例とを示す説明図である。図9は、作業者Aによる標準作業手順に従う作業工程2の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程2の作業中に動画表示部17に表示される画像の例とを示す説明図である。   FIG. 7 is an explanatory diagram showing work according to the standard work procedure by the worker A and work by the worker B. FIG. 8 illustrates an example of an image displayed on the moving image display unit 17 during the work process 1 according to the standard work procedure performed by the worker A, and is displayed on the moving image display unit 17 during the work process 1 performed by the worker B. It is explanatory drawing which shows the example of the image to be. FIG. 9 shows an example of an image displayed on the moving image display unit during the work process 2 according to the standard work procedure by the worker A, and an image displayed on the moving image display unit 17 during the work process 2 by the worker B. It is explanatory drawing which shows the example of an image.

図7および図8(a)に示す例では、作業者Aは、位置(30,200)で、時間「0:00:30」に、グリス注入を開始したことが示されているのに対し、作業者Bは、位置(30,200)で、時間「0:00:35」にグリス注入を開始している。   In the example shown in FIG. 7 and FIG. 8A, it is shown that the worker A starts the grease injection at the position (30,200) at the time “0:00:30”. The worker B starts the grease injection at the position (30,200) at time “0:00:35”.

実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。   The execution management unit 18 calculates a difference between the position and time indicated by the position information and time information stored based on the work of the worker A and the position and time of the work content of the worker B.

具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(30,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(30,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:00:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:00:35」との差分「0:00:05」を算出する。   Specifically, the execution management unit 18 indicates the position (30, 200) indicated by the position information stored based on the work of the worker A and the position information input based on the work of the worker B. The difference (0, 0) from the position (30, 200) to be calculated is calculated. In addition, the execution management unit 18 is indicated by the time “0:00:30” indicated by the time information stored based on the work of the worker A and the time information input based on the work of the worker B. The difference “0:00:05” from the time “0:00:35” is calculated.

実行管理部18は、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示されるグリス注入の作業開始時間である30秒の10%である3秒を超えているので、算出した位置の差分(0,0)、および時間の差分「0:00:05」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。   Since the execution management unit 18 exceeds 3 seconds, which is 10% of 30 seconds which is the work start time of the grease injection indicated by the time information stored based on the work of the worker A, the time difference is as follows. The stored position information and time information are input to the drawing reading unit 15 and the character reading unit 22 together with the difference information indicating the calculated position difference (0, 0) and the time difference “0:00:05”. .

文字読出部22は、差分情報によって時間の差分が生じていることが示されているので、入力された時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「三カ所グリスを注入」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:00:35」に動画表示部17に「三カ所グリスを注入」という文字が表示される(図8(b)参照)。   Since the character reading unit 22 indicates that the time difference is generated by the difference information, the character reading unit 22 reads the character information stored in the character storage unit 21 in association with the input time information. The moving image reading unit 16 causes the moving image display unit 17 to superimpose the character “three places of grease” on the moving image based on the character information read from the character storage unit 21 by the character reading unit 22, and pays attention to the operator B. Arouse. That is, the characters “Inject three places of grease” are displayed on the moving image display unit 17 at time “0:00:35” (see FIG. 8B).

図7および図8(c)に示す例では、作業者Aは、位置(120,100)で、時間「0:01:30」に、作業工程1の作業を終了したことが示されているのに対し、作業者Bは、位置(110,100)で、時間「0:01:30」に作業工程1の作業を終了している。   In the example shown in FIG. 7 and FIG. 8C, it is indicated that the worker A has finished the work of the work process 1 at the position (120, 100) at time “0:01:30”. On the other hand, the worker B finishes the work of the work process 1 at the position (110, 100) at time “0:01:30”.

実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。   The execution management unit 18 calculates a difference between the position and time indicated by the position information and time information stored based on the work of the worker A and the position and time of the work content of the worker B.

具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(120,100)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(110,100)との差分(10,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:30」との差分「0:00:00」を算出する。   Specifically, the execution management unit 18 indicates the position (120, 100) indicated by the position information stored based on the work of the worker A and the position information input based on the work of the worker B. The difference (10, 0) from the position (110, 100) to be calculated is calculated. The execution management unit 18 is indicated by the time “0: 0: 30” indicated by the time information stored based on the work of the worker A and the time information input based on the work of the worker B. The difference “0:00: 00” from the time “0: 01:30” is calculated.

実行管理部18は、Y軸の位置の差分が0であり、X軸の位置の差分「10」がX軸の最大値「320」の10%を超えておらず、時間の差分が「0:00:00」なので、標準作業手順に従う作業が実行されたと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されたことを示す画像(図7に示す例では「○」)を動画表示部17に表示されている動画に重畳表示させる。   The execution management unit 18 indicates that the Y-axis position difference is 0, the X-axis position difference “10” does not exceed 10% of the X-axis maximum value “320”, and the time difference is “0”. : 00: 00 ", it is determined that the work according to the standard work procedure has been executed. Then, the execution management unit 18 superimposes and displays an image (“◯” in the example illustrated in FIG. 7) indicating that the work according to the standard work procedure has been performed on the moving image displayed on the moving image display unit 17.

図7および図9(a)に示す例では、作業者Aは、位置(50,50)で、時間「0:01:45」に、作業を開始したことが示されているのに対し、作業者Bは、位置(50,100)で、時間「0:01:45」に作業を開始している。   In the example shown in FIG. 7 and FIG. 9A, it is shown that the worker A starts work at the position “50, 50” at time “0:01:45”. Worker B starts work at time (0:01:45) at position (50, 100).

実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。   The execution management unit 18 calculates a difference between the position and time indicated by the position information and time information stored based on the work of the worker A and the position and time of the work content of the worker B.

具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(50,50)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(50,100)との差分(0,50)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:45」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:45」との差分「0:00:00」を算出する。   Specifically, the execution management unit 18 indicates the position (50, 50) indicated by the position information stored based on the work of the worker A and the position information input based on the work of the worker B. The difference (0, 50) from the position (50, 100) to be measured is calculated. Further, the execution management unit 18 is indicated by the time “0:01:45” indicated by the time information stored based on the work of the worker A and the time information input based on the work of the worker B. A difference “0:00: 00” from the time “0: 01: 45” is calculated.

実行管理部18は、X軸の位置の差分が0であるが、Y軸の位置の差分「50」がY軸の最大値「240」の10%を超えているので、算出した位置の差分(0,50)、および時間の差分「0:00:00」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。   The execution management unit 18 calculates the difference in the X-axis position because the difference in the X-axis position is 0, but the Y-axis position difference “50” exceeds 10% of the maximum Y-axis value “240”. The stored position information and time information are input to the drawing reading unit 15 and the character reading unit 22 together with the difference information indicating (0, 50) and the time difference “0:00:00”.

描画読出部15は、差分情報によって位置の差分が生じていることが示されているので、入力された位置情報に対応付けられて描画記憶部13に記憶されている静止画データを読み出す。動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データにもとづく図形である矢印を当該静止画データに対応付けられて記憶されている位置情報によって示される位置で動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:01:45」に動画表示部17に矢印が表示される(図9(a)参照)。   The drawing reading unit 15 reads the still image data stored in the drawing storage unit 13 in association with the input position information because the difference information indicates that a difference in position has occurred. The moving image reading unit 16 converts an arrow, which is a figure based on the still image data read from the drawing storage unit 13 by the drawing reading unit 15, into a moving image at a position indicated by the position information stored in association with the still image data. The superimposed images are displayed on the moving image display unit 17 to alert the worker B. That is, an arrow is displayed on the moving image display unit 17 at time “0:01:45” (see FIG. 9A).

図7および図9(b)に示す例では、作業者Aは、位置(200,200)で、時間「0:02:15」に、切断を開始したことが示されているのに対し、作業者Bは、位置(100,100)で、時間「0:02:25」に切断を開始している。   In the example shown in FIG. 7 and FIG. 9B, it is shown that the worker A starts cutting at the position (200, 200) at the time “0:02:15”. Worker B starts cutting at time (0:02:25) at position (100, 100).

実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。   The execution management unit 18 calculates a difference between the position and time indicated by the position information and time information stored based on the work of the worker A and the position and time of the work content of the worker B.

具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(200,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(100,100)との差分(100,100)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:02:15」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:02:25」との差分「0:00:10」を算出する。   Specifically, the execution management unit 18 indicates the position (200, 200) indicated by the position information stored based on the work of the worker A and the position information input based on the work of the worker B. The difference (100, 100) from the position (100, 100) to be calculated is calculated. In addition, the execution management unit 18 is indicated by the time “0:02:15” indicated by the time information stored based on the work of the worker A and the time information input based on the work of the worker B. The difference “0:00:10” from the time “0:02:25” is calculated.

実行管理部18は、X軸の位置の差分「100」がX軸の最大値「320」の10%を超え、Y軸の位置の差分「100」がY軸の最大値「240」の最大値の10%を超え、時間の差分が記憶されている時間情報にもとづいて算出される作業工程2が開始されてから切断作業が開始されるまでの時間である30秒の10%である3秒を超えているので、算出した位置の差分(100,100)、および時間の差分「0:00:10」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。   The execution management unit 18 determines that the X-axis position difference “100” exceeds 10% of the X-axis maximum value “320”, and the Y-axis position difference “100” is the maximum of the Y-axis maximum value “240”. 10% of the value, which is 10% of 30 seconds, which is the time from the start of the work process 2 calculated based on the time information in which the time difference is stored until the cutting work is started 3 Since it exceeds the second, the position information and time information stored together with the difference information indicating the calculated position difference (100, 100) and the time difference “0:00:10” are displayed in the drawing and reading unit 15 and Input to the character reading unit 22.

文字読出部22は、差分情報によって位置の差分および時間の差分が生じていることが示されているので、入力された位置情報および時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「右側先端部をカット」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:02:25」に動画表示部17に「右側先端部をカット」という文字が表示される(図9(b)参照)。   The character reading unit 22 indicates that a difference in position and a difference in time are generated by the difference information, and is stored in the character storage unit 21 in association with the input position information and time information. Read character information. The moving image reading unit 16 superimposes the character “cut right end portion” based on the character information read out from the character storage unit 21 by the character reading unit 22 on the moving image and displays it on the moving image display unit 17 to pay attention to the operator B. Arouse. That is, at the time “0:02:25”, the characters “cut the right end” are displayed on the moving image display unit 17 (see FIG. 9B).

図7および図9(c)に示す例では、作業者Aは、位置(300,200)で、時間「0:03:00」に、作業工程2の作業を終了したことが示されているのに対し、作業者は、位置(300,200)で、時間「0:03:10」に作業工程2の作業を終了している。   In the example shown in FIG. 7 and FIG. 9C, it is indicated that the worker A has finished the work of the work process 2 at the position (300, 200) at the time “0:03:00”. On the other hand, the worker finishes the work of work process 2 at time “0:03:10” at the position (300, 200).

実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。   The execution management unit 18 calculates a difference between the position and time indicated by the position information and time information stored based on the work of the worker A and the position and time of the work content of the worker B.

具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(300,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(300,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:03:00」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:03:10」との差分「0:00:10」を算出する。   Specifically, the execution management unit 18 indicates the position (300, 200) indicated by the position information stored based on the work of the worker A and the position information input based on the work of the worker B. The difference (0, 0) from the position (300, 200) to be measured is calculated. In addition, the execution management unit 18 is indicated by the time “0:03:00” indicated by the time information stored based on the work of the worker A and the time information input based on the work of the worker B. The difference “0:00:10” from the time “0:03:10” is calculated.

実行管理部18は、位置の差分が(0,0)であり、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示される作業工程2の作業終了までの時間である75秒の10%である7.5秒を超えているので、標準作業手順に従う作業が実行されなかったと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されなかったことを示す画像(図7に示す例では「△」)を動画表示部17に表示されている動画に重畳表示させる。   The execution management unit 18 has a position difference of (0, 0), and the time difference is the time until the work end of the work process 2 indicated by the time information stored based on the work of the worker A. Since 7.5 seconds, which is 10% of 75 seconds, is exceeded, it is determined that the operation according to the standard operation procedure has not been executed. Then, the execution management unit 18 superimposes and displays an image (“Δ” in the example illustrated in FIG. 7) indicating that the operation according to the standard operation procedure has not been performed on the moving image displayed on the moving image display unit 17.

本実施形態によれば、熟練者である作業者Aによる標準作業手順に従う作業中に、動画表示部17に表示させる図形や文字の入力が行われるので、時間や手間をかけずに、容易に動画データを作成することができる。   According to this embodiment, since the figure and the character to be displayed on the moving image display unit 17 are input during the work in accordance with the standard work procedure by the worker A who is an expert, it is easy without taking time and effort. Movie data can be created.

また、作業者Bによる作業中に、標準作業手順に従う作業内容および時間と、作業者Bによる作業内容および時間との差異が所定の値を超えていることを検出した場合に、図形や文字を動画表示部17に表示させるので、作業者Bに注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。   Further, when it is detected that the difference between the work content and time in accordance with the standard work procedure and the work content and time by the worker B exceeds a predetermined value during the work by the worker B, a figure or a character is displayed. Since it is displayed on the moving image display unit 17, it is possible to alert the operator B to prompt confirmation of the work contents and prevent work mistakes.

また、熟練者である作業者Aによる作業を撮影した動画データを動画記憶部14に記録することによって、当該動画データを作業進捗管理や作業分析に活用することができる。   Further, by recording the moving image data obtained by photographing the work by the worker A who is an expert in the moving image storage unit 14, the moving image data can be used for work progress management and work analysis.

また、一般的な作業管理システムでは、作業の進捗状況を確認する場合に、作業開始時や作業終了時に作業者が当該システムに情報を入力しなければならないが、ジェスチャによって情報が入力されるので、情報の入力操作を忘れたりすることによる作業漏れを防ぎ、作業精度を向上させることができる。   In a general work management system, when checking the progress of work, the worker must input information into the system at the start of work or at the end of work, but information is input by gestures. Therefore, it is possible to prevent work leakage due to forgetting to input information and improve work accuracy.

次に、本発明の概要について説明する。図10は、本発明の概要を示すブロック図である。図10に示すように、本発明による標準作業実行支援装置100は、標準作業情報記憶部101(図1に示す実行管理部18に相当)、画像解析部102(図1に示す画像解析部11に相当)、差異算出部103(図1に示す実行管理部18に相当)、および重畳部104(図1に示す描画読出部15、文字読出部22、および動画読出部16に相当)を含む。   Next, the outline of the present invention will be described. FIG. 10 is a block diagram showing an outline of the present invention. As shown in FIG. 10, a standard work execution support apparatus 100 according to the present invention includes a standard work information storage unit 101 (corresponding to the execution management unit 18 shown in FIG. 1) and an image analysis unit 102 (image analysis unit 11 shown in FIG. 1). ), A difference calculating unit 103 (corresponding to the execution managing unit 18 shown in FIG. 1), and a superimposing unit 104 (corresponding to the drawing reading unit 15, the character reading unit 22, and the moving image reading unit 16 shown in FIG. 1). .

標準作業情報記憶部101は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する。   The standard work information storage unit 101 includes position information indicating the position of the worker's hand in the image frame constituting the moving image of the work following the standard work procedure, and time information indicating the timing at which the hand is at the position indicated by the position information. Pre-correlate and store.

画像解析部102は、動画撮影部(図1に示す画像入力部10に相当)によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成する。   The image analysis unit 102 is a position indicating the position of the other worker's hand in an image frame constituting a moving image of the work performed by the other worker, which is shot by the moving image shooting unit (corresponding to the image input unit 10 shown in FIG. 1). Generate information.

差異算出部103は、標準作業情報記憶部101に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで画像解析部102が生成した位置情報によって示される位置との差異を算出する。   The difference calculation unit 103 is an image analysis unit 102 at a position indicated by the position information corresponding to the time information stored in the standard work information storage unit 101 and the timing indicated by the time information in the moving image shot by the moving image shooting unit. The difference from the position indicated by the position information generated by is calculated.

また、差異算出部103は、標準作業情報記憶部101に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部102が生成したタイミングとの差異を算出する。   Further, the difference calculation unit 103 is configured to display the position indicated by the position information based on the timing indicated by the time information corresponding to the position information stored in the standard work information storage unit 101 and the moving image shot by the moving image shooting unit. The difference from the timing at which the image analysis unit 102 generated the position information indicating the position that matches is calculated.

重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部101に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段(図1に示す動画表示部17に相当)に表示させる。   When the calculation result of the difference calculation unit 103 is larger than a predetermined value, the superimposing unit 104 corresponds to the position information or time information stored in the standard work information storage unit 101 on the moving image shot by the moving image shooting unit. The image to be displayed is superimposed and displayed on the display means (corresponding to the moving image display unit 17 shown in FIG. 1).

そのような構成によれば、作業者による作業中に、標準作業手順に従う作業内容および時間と、作業者による作業内容および時間との差異が所定の値を超えていることを検出した場合に、画像を表示手段に重畳表示させるので、作業者に注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。   According to such a configuration, during the work by the worker, when it is detected that the difference between the work content and time according to the standard work procedure and the work content and time by the worker exceeds a predetermined value, Since the image is superimposed and displayed on the display means, the operator can be alerted to confirm the work contents, and work mistakes can be prevented.

また、上記の実施形態では、以下の(1)〜(4)に示すような標準作業実行支援装置も開示されている。   Further, in the above embodiment, standard work execution support devices as shown in the following (1) to (4) are also disclosed.

(1)重畳部104が、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する静止画データを記憶する静止画データ記憶部(図1に示す描画記憶部13に相当)から位置情報または時間情報に対応する静止画データを読み出して、動画撮影部によって撮影された動画に、静止画データにもとづく静止画を重畳して表示手段に表示させる標準作業実行支援装置。 (1) The superimposition unit 104 stores still image data corresponding to the position information and time information stored in the standard work information storage unit 101 when the calculation result of the difference calculation unit 103 is larger than a predetermined value. Still image data corresponding to position information or time information is read from a still image data storage unit (corresponding to the drawing storage unit 13 shown in FIG. 1), and a still image based on the still image data is captured by the moving image shooting unit. A standard work execution support device that superimposes and displays on a display means.

(2)標準作業手順に従う作業の動画における作業者の所定のジェスチャを認識するジェスチャ認識部(図1に示す手型認識部12に相当)と、画像解析部102が生成した位置情報と、動画において所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部101に記憶させるジェスチャ情報登録部(図1に示す手型認識部12に相当)とを備え、静止画データ記憶部には、作業者による所定のジェスチャに応じた静止画データが予め記憶され、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、所定のジェスチャが行われた位置を示す位置情報を生成し、ジェスチャ情報登録部は、所定のジェスチャに対応付けられた静止画データに、位置情報と時間情報とを対応付けて静止画データ記憶部に記憶させる標準作業実行支援装置。 (2) A gesture recognition unit (corresponding to the hand type recognition unit 12 shown in FIG. 1) for recognizing a predetermined gesture of the worker in a moving image of work according to the standard work procedure, position information generated by the image analysis unit 102, A gesture information registration unit (corresponding to the hand type recognition unit 12 shown in FIG. 1) that stores time information indicating the timing at which a predetermined gesture is photographed in the standard work information storage unit 101, and a still image data storage unit In FIG. 3, still image data corresponding to a predetermined gesture by the worker is stored in advance, and the image analysis unit 102 indicates a position where the predetermined gesture is performed in an image frame constituting a moving image of the work according to the standard work procedure. The position information is generated, and the gesture information registration unit associates the position information and the time information with the still image data associated with the predetermined gesture, and Standard work execution support device to be stored in the data storage unit.

(3)重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する文字データを記憶する文字データ記憶部(図1に示す文字記憶部21に相当)から位置情報または時間情報に対応する文字データを読み出して、動画撮影部によって撮影された動画に、文字データにもとづく文字を重畳して表示手段に表示させる標準作業実行支援装置。 (3) The superimposing unit 104 stores character data corresponding to position information and time information stored in the standard work information storage unit 101 when the calculation result of the difference calculation unit 103 is larger than a predetermined value. Character data corresponding to position information or time information is read from a data storage unit (corresponding to the character storage unit 21 shown in FIG. 1), and characters based on the character data are superimposed and displayed on the moving image shot by the moving image shooting unit. Standard work execution support device displayed on the means.

(4)入力された音声を認識して、音声にもとづく文字データと、音声が入力されたタイミングを示す時間情報とを生成して文字データ記憶部に記憶させる音声認識部(図1に示す音声認識部20に相当)と、画像解析部102が生成した位置情報と音声認識部が生成した時間情報とを標準作業情報記憶部101に記憶させる音声情報登録部(図1に示す文字読出部22に相当)とを備え、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、タイミングにおける作業者の手の位置を示す位置情報を生成し、音声情報登録部は、位置情報を文字データと時間情報とに対応付けて文字データ記憶部に記憶させる標準作業実行支援装置。 (4) A voice recognition unit (speech shown in FIG. 1) that recognizes input voice, generates character data based on the voice, and time information indicating the timing when the voice is input and stores it in the character data storage unit. A voice information registration unit (character reading unit 22 shown in FIG. 1) that stores the position information generated by the image analysis unit 102 and the time information generated by the voice recognition unit in the standard work information storage unit 101. The image analysis unit 102 generates position information indicating the position of the operator's hand at the timing in the image frame constituting the moving image of the work according to the standard work procedure, and the audio information registration unit A standard work execution support apparatus that stores information in a character data storage unit in association with character data and time information.

本発明を、作業者による標準作業手順に従う作業の実行を作業中に支援するためのシステムに適用する事ができる。   The present invention can be applied to a system for supporting execution of work according to a standard work procedure by an operator during the work.

10 画像入力部
11、102 画像解析部
12 手型認識部
13 描画記憶部
14 動画記憶部
15 描画読出部
16 動画読出部
17 動画表示部
18 実行管理部
19 音声入力部
20 音声認識部
21 文字記憶部
22 文字読出部
100 標準作業実行支援装置
101 標準作業情報記憶部
103 差異算出部
104 重畳部
DESCRIPTION OF SYMBOLS 10 Image input part 11,102 Image analysis part 12 Hand type recognition part 13 Drawing memory | storage part 14 Movie storage part 15 Drawing reading part 16 Movie reading part 17 Movie display part 18 Execution management part 19 Voice input part 20 Voice recognition part 21 Character storage Unit 22 character reading unit 100 standard work execution support device 101 standard work information storage unit 103 difference calculation unit 104 superposition unit

Claims (10)

標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、前記手が前記位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部と、
動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける前記他の作業者の手の位置を示す位置情報を生成する画像解析部と、
前記標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された前記動画における前記時間情報によって示されるタイミングで前記画像解析部が生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された前記動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を前記画像解析部が生成したタイミングとの差異を算出する差異算出部と、
前記差異算出部の算出結果が所定の値よりも大きい場合に、前記動画撮影部によって撮影された前記動画に、前記標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる重畳部とを備えた
ことを特徴とする標準作業実行支援装置。
The position information indicating the position of the worker's hand in the image frame constituting the moving image of the work following the standard work procedure and the time information indicating the timing at which the hand is at the position indicated by the position information are stored in association with each other. A standard work information storage unit;
An image analysis unit that generates position information indicating a position of the hand of the other worker in an image frame constituting a moving image of the work performed by the other worker taken by the moving image shooting unit;
The image analysis unit generates the position indicated by the position information corresponding to the time information stored in the standard work information storage unit and the timing indicated by the time information in the moving image captured by the moving image capturing unit. Based on the difference between the position indicated by the position information, the timing indicated by the time information corresponding to the position information stored in the standard work information storage unit, and the moving image shot by the moving image shooting unit, A difference calculation unit that calculates a difference from the timing at which the image analysis unit generates position information indicating a position that matches the position indicated by the position information;
When the calculation result of the difference calculation unit is larger than a predetermined value, an image corresponding to the position information or time information stored in the standard work information storage unit is added to the moving image shot by the moving image shooting unit. A standard work execution support apparatus, comprising: a superimposing unit that superimposes and displays on a display means.
重畳部は、差異算出部の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部に記憶されている位置情報および時間情報に対応する静止画データを記憶する静止画データ記憶部から前記位置情報または前記時間情報に対応する静止画データを読み出して、動画撮影部によって撮影された動画に、前記静止画データにもとづく静止画を重畳して表示手段に表示させる
請求項1記載の標準作業実行支援装置。
When the calculation result of the difference calculation unit is larger than a predetermined value, the superimposition unit is configured to store a still image data corresponding to the position information and time information stored in the standard work information storage unit. The standard according to claim 1, wherein the still image data corresponding to the position information or the time information is read, and a still image based on the still image data is superimposed on the moving image captured by the moving image capturing unit and displayed on the display means. Work execution support device.
標準作業手順に従う作業の動画における作業者の所定のジェスチャを認識するジェスチャ認識部と、
画像解析部が生成した位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させるジェスチャ情報登録部とを備え、
静止画データ記憶部には、作業者による前記所定のジェスチャに応じた静止画データが予め記憶され、
前記画像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記所定のジェスチャが行われた位置を示す位置情報を生成し、
前記ジェスチャ情報登録部は、前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記静止画データ記憶部に記憶させる
請求項2記載の標準作業実行支援装置。
A gesture recognizing unit for recognizing a predetermined gesture of the worker in the video of the work according to the standard work procedure;
A gesture information registration unit that stores position information generated by the image analysis unit and time information indicating timing at which the predetermined gesture is captured in the moving image in a standard work information storage unit;
In the still image data storage unit, still image data corresponding to the predetermined gesture by the operator is stored in advance,
The image analysis unit generates position information indicating a position where the predetermined gesture is performed in an image frame constituting a moving image of work according to a standard work procedure,
The standard work execution according to claim 2, wherein the gesture information registration unit stores the position information and the time information in association with the still image data associated with the predetermined gesture in the still image data storage unit. Support device.
重畳部は、差異算出部の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部に記憶されている位置情報および時間情報に対応する文字データを記憶する文字データ記憶部から前記位置情報または前記時間情報に対応する文字データを読み出して、動画撮影部によって撮影された動画に、前記文字データにもとづく文字を重畳して表示手段に表示させる
請求項1から請求項3のうちいずれか1項記載の標準作業実行支援装置。
When the calculation result of the difference calculation unit is larger than a predetermined value, the superimposition unit stores the position data from the character data storage unit that stores character data corresponding to the position information and time information stored in the standard work information storage unit. The character data corresponding to the information or the time information is read out, and the character based on the character data is superimposed on the moving image photographed by the moving image photographing unit and displayed on the display means. The standard work execution support apparatus according to Item 1.
入力された音声を認識して、前記音声にもとづく文字データと、前記音声が入力されたタイミングを示す時間情報とを生成して文字データ記憶部に記憶させる音声認識部と、
画像解析部が生成した位置情報と前記音声認識部が生成した時間情報とを標準作業情報記憶部に記憶させる音声情報登録部とを備え、
前記画像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記タイミングにおける作業者の手の位置を示す位置情報を生成し、
前記音声情報登録部は、前記位置情報を前記文字データと前記時間情報とに対応付けて前記文字データ記憶部に記憶させる
請求項4記載の標準作業実行支援装置。
A voice recognition unit that recognizes an input voice, generates character data based on the voice, and time information indicating a timing at which the voice is input, and stores the generated time information in a character data storage unit;
A voice information registration unit that stores position information generated by the image analysis unit and time information generated by the voice recognition unit in a standard work information storage unit;
The image analysis unit generates position information indicating the position of the operator's hand at the timing in an image frame constituting a moving image of work according to a standard work procedure,
The standard work execution support apparatus according to claim 4, wherein the voice information registration unit stores the position information in the character data storage unit in association with the character data and the time information.
動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける前記他の作業者の手の位置を示す位置情報を生成し、
標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、前記手が前記位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された前記動画における前記時間情報によって示されるタイミングで生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された前記動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を生成したタイミングとの差異を算出し、
算出結果が所定の値よりも大きい場合に、前記動画撮影部によって撮影された前記動画に、前記標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる
ことを特徴とする標準作業実行支援方法。
Generating position information indicating a position of the hand of the other worker in an image frame constituting a moving image of work by another worker photographed by the moving image photographing unit;
The position information indicating the position of the worker's hand in the image frame constituting the moving image of the work following the standard work procedure and the time information indicating the timing at which the hand is at the position indicated by the position information are stored in association with each other. The position indicated by the position information corresponding to the time information stored in the standard work information storage unit, and the position indicated by the position information generated at the timing indicated by the time information in the moving image captured by the moving image capturing unit And the position indicated by the position information based on the timing indicated by the time information corresponding to the position information stored in the standard work information storage unit and the moving image shot by the moving image shooting unit Calculate the difference from the timing that generated the position information indicating the position that matches
When the calculation result is larger than a predetermined value, a display unit that superimposes an image corresponding to position information or time information stored in the standard work information storage unit on the moving image captured by the moving image capturing unit A standard work execution support method characterized by being displayed on the screen.
差異算出の結果が所定の値よりも大きい場合に、標準作業情報記憶部に記憶されている位置情報および時間情報に対応する静止画データを記憶する静止画データ記憶部から前記位置情報または前記時間情報に対応する静止画データを読み出して、動画撮影部によって撮影された動画に、前記静止画データにもとづく静止画を重畳して表示手段に表示させる
請求項6記載の標準作業実行支援方法。
When the difference calculation result is larger than a predetermined value, the position information or the time from the still image data storage unit that stores the still image data corresponding to the position information and time information stored in the standard work information storage unit The standard work execution support method according to claim 6, wherein still image data corresponding to the information is read, and a still image based on the still image data is superimposed on a moving image captured by the moving image capturing unit and displayed on a display unit.
静止画データ記憶部には、作業者による所定のジェスチャに応じた静止画データが予め記憶され、
標準作業手順に従う作業の動画における作業者の前記所定のジェスチャを認識し、
前記所定のジェスチャが行われた位置を示す位置情報を生成し、
前記位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させ、
前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記静止画データ記憶部に記憶させる
請求項7記載の標準作業実行支援方法。
In the still image data storage unit, still image data corresponding to a predetermined gesture by the operator is stored in advance,
Recognizing the predetermined gesture of the worker in the video of the work following the standard work procedure;
Generating position information indicating a position where the predetermined gesture is performed;
Storing the position information and time information indicating a timing at which the predetermined gesture is captured in the moving image in a standard work information storage unit;
The standard work execution support method according to claim 7, wherein the position information and the time information are associated with each other and stored in the still image data storage unit in the still image data associated with the predetermined gesture.
差異算出の結果が所定の値よりも大きい場合に、標準作業情報記憶部に記憶されている位置情報および時間情報に対応する文字データを記憶する文字データ記憶部から前記位置情報または前記時間情報に対応する文字データを読み出して、動画撮影部によって撮影された動画に、前記文字データにもとづく文字を重畳して表示手段に表示させる
請求項6から請求項8のうちいずれか1項記載の標準作業実行支援方法。
When the difference calculation result is larger than a predetermined value, the position information or the time information is stored in the position information or the time information from the character data storage unit that stores character data corresponding to the position information and time information stored in the standard work information storage unit. The standard work according to any one of claims 6 to 8, wherein the corresponding character data is read out, and the character based on the character data is superimposed on the moving image photographed by the moving image photographing unit and displayed on the display means. Execution support method.
入力された音声を認識して、前記音声にもとづく文字データと、前記音声が入力されたタイミングを示す時間情報とを生成して文字データ記憶部に記憶させ、
前記タイミングにおける標準作業手順に従う作業を行う作業者の手の位置を示す位置情報と前記時間情報とを標準作業情報記憶部に記憶させ、
前記位置情報を前記文字データと前記時間情報とに対応付けて前記文字データ記憶部に記憶させる
請求項9記載の標準作業実行支援方法。
Recognizing the input voice, generating character data based on the voice and time information indicating the timing at which the voice is input and storing it in the character data storage unit,
Store the position information indicating the position of the hand of the worker who performs the work according to the standard work procedure at the timing and the time information in the standard work information storage unit,
The standard work execution support method according to claim 9, wherein the position information is stored in the character data storage unit in association with the character data and the time information.
JP2010023329A 2010-02-04 2010-02-04 Standard work execution support device and standard work execution support method Expired - Fee Related JP5177154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023329A JP5177154B2 (en) 2010-02-04 2010-02-04 Standard work execution support device and standard work execution support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023329A JP5177154B2 (en) 2010-02-04 2010-02-04 Standard work execution support device and standard work execution support method

Publications (2)

Publication Number Publication Date
JP2011164694A true JP2011164694A (en) 2011-08-25
JP5177154B2 JP5177154B2 (en) 2013-04-03

Family

ID=44595348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023329A Expired - Fee Related JP5177154B2 (en) 2010-02-04 2010-02-04 Standard work execution support device and standard work execution support method

Country Status (1)

Country Link
JP (1) JP5177154B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work
JP2014232531A (en) * 2013-05-28 2014-12-11 ザ・ボーイング・カンパニーTheBoeing Company Tracking user to support tasks performed on complex-system components
WO2017017737A1 (en) * 2015-07-24 2017-02-02 富士通株式会社 Display method, monitor result output method, information processing device, and display program
US9811719B2 (en) 2015-05-21 2017-11-07 Fuji Xerox Co., Ltd. Information processing apparatus and method, and non-transitory computer readable medium
JP2018088173A (en) * 2016-11-29 2018-06-07 ケーディーアイコンズ株式会社 Information processing device
JP2019016226A (en) * 2017-07-07 2019-01-31 株式会社日立製作所 Work data management system and work data management method
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
WO2020003545A1 (en) * 2018-06-29 2020-01-02 株式会社日立システムズ Content creation system
US10755222B2 (en) 2014-06-13 2020-08-25 Hitachi Systems, Ltd. Work management apparatus, work defect prevention program, and work defect prevention method
JP2022031286A (en) * 2017-07-13 2022-02-18 株式会社東芝 Information processing apparatus, method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173297A (en) * 1997-08-29 1999-03-16 Hitachi Ltd Recognition method using timely relation of multi-modal expression with voice and gesture
JPH11175517A (en) * 1997-12-10 1999-07-02 Canon Inc Information processor and method therefor
JP2003167613A (en) * 2001-11-30 2003-06-13 Sharp Corp Operation management system and method and recording medium with its program for realizing the same method stored
JP2008108008A (en) * 2006-10-24 2008-05-08 Omron Corp Moving pattern specification device, moving pattern specification method, moving pattern specification program, and recording medium that recorded this
JP2008171211A (en) * 2007-01-11 2008-07-24 Ricoh Co Ltd Data processor, and storage medium storing program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173297A (en) * 1997-08-29 1999-03-16 Hitachi Ltd Recognition method using timely relation of multi-modal expression with voice and gesture
JPH11175517A (en) * 1997-12-10 1999-07-02 Canon Inc Information processor and method therefor
JP2003167613A (en) * 2001-11-30 2003-06-13 Sharp Corp Operation management system and method and recording medium with its program for realizing the same method stored
JP2008108008A (en) * 2006-10-24 2008-05-08 Omron Corp Moving pattern specification device, moving pattern specification method, moving pattern specification program, and recording medium that recorded this
JP2008171211A (en) * 2007-01-11 2008-07-24 Ricoh Co Ltd Data processor, and storage medium storing program therefor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work
JP2014232531A (en) * 2013-05-28 2014-12-11 ザ・ボーイング・カンパニーTheBoeing Company Tracking user to support tasks performed on complex-system components
US10755222B2 (en) 2014-06-13 2020-08-25 Hitachi Systems, Ltd. Work management apparatus, work defect prevention program, and work defect prevention method
US9811719B2 (en) 2015-05-21 2017-11-07 Fuji Xerox Co., Ltd. Information processing apparatus and method, and non-transitory computer readable medium
WO2017017737A1 (en) * 2015-07-24 2017-02-02 富士通株式会社 Display method, monitor result output method, information processing device, and display program
JP2018088173A (en) * 2016-11-29 2018-06-07 ケーディーアイコンズ株式会社 Information processing device
US10657477B2 (en) * 2017-07-07 2020-05-19 Hitachi, Ltd. Work data management system and work data management method
JP2019016226A (en) * 2017-07-07 2019-01-31 株式会社日立製作所 Work data management system and work data management method
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
US10971029B2 (en) 2017-07-13 2021-04-06 Kabushiki Kaisha Toshiba Information processing device, method, and storage medium
JP2022031286A (en) * 2017-07-13 2022-02-18 株式会社東芝 Information processing apparatus, method and program
JP7268121B2 (en) 2017-07-13 2023-05-02 株式会社東芝 Information processing device, method and program
WO2020003545A1 (en) * 2018-06-29 2020-01-02 株式会社日立システムズ Content creation system
JP2020003707A (en) * 2018-06-29 2020-01-09 株式会社日立システムズ Content generation system
JP7191560B2 (en) 2018-06-29 2022-12-19 株式会社日立システムズ content creation system

Also Published As

Publication number Publication date
JP5177154B2 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
JP5177154B2 (en) Standard work execution support device and standard work execution support method
KR101813834B1 (en) Image processing device, image processing method, image processing program and photographing assist equipment
JP5839553B2 (en) Work support system, work support method, and work terminal
US20180027218A1 (en) Work assistance device, work assistance system, work assistance method, and recording medium storing work assistance program
JP2018192230A (en) Eyebrow shape guide device and method therefor
JP2008225913A (en) Operation support system, operation support device, and operation support method
US20170220105A1 (en) Information processing apparatus, information processing method, and storage medium
JPWO2020012955A1 (en) Information processing equipment, information processing methods, and programs
JPWO2016084151A1 (en) Work support system, work support device, and work support method
JPWO2020021858A5 (en) Imaging support device, imaging support method and imaging support program
JP6710555B2 (en) Image display system, information processing device, image display method, and computer program
JP2009289046A (en) Operation support device and method using three-dimensional data
JP5222646B2 (en) Terminal device, display control method, and display control program
WO2016157528A1 (en) Work assistance apparatus
US20230244318A1 (en) Program, head-mounted display, and information processing device
JP2015219538A (en) Work support device and work support method
JP2017211746A (en) Inspection work assist device and inspection work assist method
CN115552913A (en) Information processing method, information processing apparatus, program, and information processing system
JP4568121B2 (en) Remote work support system, remote work support method and program
KR102538056B1 (en) Building management system using augmented reality
JP2011103514A (en) Video information processor
JP5522591B2 (en) Mobile terminal device and presentation method
JP2018081149A (en) Image output device, remote conference system, and image output method
JP7167654B2 (en) Information processing device, head mounted display, computer program and image display system
JP2008014825A (en) Method and program for measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121224

LAPS Cancellation because of no payment of annual fees