JP2011164694A - Device and method for support of standard operation execution - Google Patents
Device and method for support of standard operation execution Download PDFInfo
- Publication number
- JP2011164694A JP2011164694A JP2010023329A JP2010023329A JP2011164694A JP 2011164694 A JP2011164694 A JP 2011164694A JP 2010023329 A JP2010023329 A JP 2010023329A JP 2010023329 A JP2010023329 A JP 2010023329A JP 2011164694 A JP2011164694 A JP 2011164694A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- moving image
- information
- position information
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、作業者による標準作業手順に従う作業の実行を支援するための標準作業実行支援装置、および標準作業実行支援方法に関する。 The present invention relates to a standard work execution support apparatus and a standard work execution support method for supporting the execution of work according to a standard work procedure by an operator.
製造業やサービス業などの企業には、作業者が正しい作業手順である標準作業手順を習得するために、標準作業手順をわかりやすく記載した手順書や、作業マニュアル、テキスト、写真等が用意されている。 Companies such as the manufacturing industry and the service industry are provided with procedure manuals, work manuals, texts, photographs, etc. that describe the standard work procedures in an easy-to-understand manner so that workers can learn the standard work procedures that are correct work procedures. ing.
また、作業者による作業を撮影して、標準作業手順に従う作業の実行を支援する場合がある。 Further, there is a case where the work performed by the worker is photographed to assist the execution of the work according to the standard work procedure.
特許文献1には、作業を撮影し、作業時間と標準作業時間とに差異が生じた場合に、管理者が異常状態の作業であると判断するシステムが記載されている。
特許文献2には、作業者の作業を撮影した動画にもとづく作業者の所定の部位の位置の変化を示す入力パターンと、標準パターンとを比較するシステムが記載されている。 Patent Document 2 describes a system that compares an input pattern indicating a change in position of a predetermined part of an operator based on a moving image obtained by photographing an operator's work with a standard pattern.
特許文献1に記載されているシステムでは、実際に作業を行っている作業者の作業状況を、管理者が保存された映像にもとづいて確認するので、作業者に対して作業中に改善すべき内容を伝達することは困難である。
In the system described in
また、特許文献2に記載されているシステムでは、作業中に標準作業手順との差異を指摘することは考慮されていないので、誤った作業が行われるおそれがある。 Further, in the system described in Patent Document 2, it is not considered to point out a difference from the standard work procedure during the work, and thus there is a possibility that an erroneous work is performed.
そこで、本発明は、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援するための標準作業実行支援装置、および標準作業実行支援方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a standard work execution support device and a standard work execution support method for supporting a worker to perform a work according to a standard work procedure when the worker is working. .
本発明による標準作業実行支援装置は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部と、動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成する画像解析部と、標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで画像解析部が生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部が生成したタイミングとの差異を算出する差異算出部と、差異算出部の算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる重畳部とを備えたことを特徴とする。 The standard work execution support device according to the present invention includes position information indicating the position of the operator's hand in an image frame constituting a moving image of work according to the standard work procedure, and time information indicating timing at which the hand is at the position indicated by the position information. And a position information indicating the position of the hand of the other worker in the image frame constituting the moving image of the work performed by the other worker taken by the moving image photographing unit. The image analysis unit generates the image analysis unit, the position indicated by the position information corresponding to the time information stored in the standard work information storage unit, and the timing indicated by the time information in the moving image shot by the moving image shooting unit. The time information corresponding to the position information stored in the standard work information storage unit and the difference from the position indicated by the position information The difference calculation unit calculates a difference between the timing indicated by the image analysis unit and the timing at which the image analysis unit generates position information indicating a position matching the position indicated by the position information based on the moving image shot by the moving image shooting unit When the calculation result of the difference calculation unit is larger than a predetermined value, the image corresponding to the position information or time information stored in the standard work information storage unit is superimposed on the moving image shot by the moving image shooting unit. And a superimposing unit to be displayed on the display means.
本発明による標準作業実行支援方法は、動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成し、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで生成した位置情報によって示される位置との差異、および標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を生成したタイミングとの差異を算出し、算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させることを特徴とする。 The standard work execution support method according to the present invention generates position information indicating the position of the hand of another worker in an image frame constituting a moving image of the work performed by another worker taken by the moving image photographing unit, and performs a standard work procedure. The standard work information storage unit that stores in advance the position information indicating the position of the operator's hand in the image frame constituting the moving image of the work according to the time information indicating the timing at which the hand is at the position indicated by the position information The difference between the position indicated by the position information corresponding to the time information stored in the position information and the position indicated by the position information generated at the timing indicated by the time information in the moving image captured by the moving image capturing unit, and the standard work information The timing indicated by the time information corresponding to the position information stored in the storage unit and the video shooting unit Based on the recorded moving image, a difference from the timing at which position information indicating a position matching the position indicated by the position information is generated is calculated, and when the calculation result is larger than a predetermined value, the moving image shooting unit captures the difference. An image corresponding to the position information or time information stored in the standard work information storage unit is superimposed on the moving image and displayed on the display means.
本発明によれば、作業者が作業を行っているときに標準作業手順に従って作業を実行することを支援することができる。 ADVANTAGE OF THE INVENTION According to this invention, it can assist performing an operation | work according to a standard operation | work procedure, when an operator is working.
本発明による標準作業実行支援装置の実施形態について、図面を参照して説明する。図1は、本発明の実施形態の標準作業実行支援装置の構成例を示すブロック図である。 An embodiment of a standard work execution support apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of a standard work execution support apparatus according to an embodiment of the present invention.
図1に示すように、本発明の実施形態の標準作業実行支援装置は、画像解析部11、手型認識部12、描画読出部15、動画読出部16、実行管理部18、音声認識部20、および文字読出部22を含む。
As shown in FIG. 1, the standard work execution support apparatus of the embodiment of the present invention includes an
画像解析部11は、撮影機能を有するビデオカメラである画像入力部10が作業を撮影した動画を構成する各画像フレームの時間と各画像フレームの画像における所定の箇所の位置とを解析する機能を有する。そして、解析結果の位置を示す位置情報と時間を示す時間情報とを生成して出力する機能を有する。なお、各画像フレームの画像における所定の箇所の位置は、例えば、各画像フレームの画像における作業者の手の中心の位置(以下、単に手の位置という)である。また、各画像フレームの時間は、作業が開始されてから各画像フレームの画像が撮影されるまでに経過した時間である。
The
手型認識部12は、手足の動きを計測してジェスチャ認識を行う方法を用いて、所定の手の動きであるジェスチャを認識し、認識したジェスチャを示す情報と、動画を構成する画像フレームのうち、ジェスチャが撮影されている画像フレームの時間を示す時間情報と、予め設定された座標軸にもとづいてジェスチャが行われた手の位置を示す位置情報とを出力する機能を有する。なお、手型認識部12には、画像入力部10が撮影した動画が画像解析部11を介して入力され、手型認識部12は、ジェスチャが当該動画における複数の画像フレームに亘って撮影されている場合に、例えば、当該ジェスチャが最初に撮影された画像フレームの時間を示す時間情報を出力する。
The hand-
なお、ジェスチャ認識については、以下に示す参考文献1,2に記載されている。
参考文献1:特許第3144400号公報
参考文献2:特許第3863809号公報
Gesture recognition is described in the following
Reference 1: Japanese Patent No. 3144400 Reference 2: Japanese Patent No. 3863809
描画記憶部13には、予めジェスチャに対応した静止画データを記憶されている。描画記憶部13に記憶されている静止画データは描画読出部15によって読み出される。なお、描画記憶部13に記憶されている静止画データは、例えば、図形の静止画データや、文字の静止画データである。
The
動画記憶部14には、画像入力部10が撮影した動画の動画データが一時的に保存される。また、動画記憶部14には、画像入力部10が撮影した動画に静止画データにもとづく画像を当該動画の一部として重ね合わせて表示するための動画データが保存される。
The moving
描画読出部15は、手型認識部12が認識したジェスチャに対応する静止画データを描画記憶部13から読み出す機能を有する。また、描画読出部15は、実行管理部18の要求に応じて、描画記憶部13から静止画データを読み出す機能を有する。
The
動画読出部16は、動画記憶部14に記憶された動画データを読み出し、動画を表示するディスプレイである動画表示部17に、動画データにもとづく動画に静止画データにもとづく画像を重ね合わせて表示させる機能、すなわち、動画データにもとづく動画に静止画データにもとづく画像を重畳表示させる機能を備えている。
The moving
なお、動画表示部17は、標準作業や作業者自身の作業状況を作業中に確認するために、作業者の頭部付近に装着されるディスプレイであるヘッドマウントディスプレイであることが望ましいが、作業者が作業中に確認できる位置に固定されたディスプレイであってもよい。
The moving
音声認識部20は、マイクロフォンである音声入力部19に入力された音声を認識して文字情報に変換する機能を有する。つまり、音声入力部19に入力された音声にもとづく文字データを生成する機能を有する。文字記憶部21には、音声入力部19に音声が入力されたタイミングを示す時間情報と、音声認識部20によって入力された音声が変換された文字情報とが対応付けられて記憶される。音声入力部19に音声が入力されたタイミングは、例えば、作業が開始されてから音声が入力されるまでに経過した時間である。なお、文字記憶部21には、音声入力部19に音声が入力されたタイミングで画像解析部11が生成した位置情報が文字情報および時間情報に対応付けられて記憶されてもよい。
The
文字読出部22は、音声認識部20によって文字記憶部21に記憶された文字情報を読み出して動画読出部16に入力する機能を有する。また、文字読出部22は、当該文字情報に対応付けられて文字記憶部21に記憶された時間情報とともに、当該文字情報に応じた音声が音声入力部19に入力したタイミングにおいて画像解析部11が生成した作業者の手の位置を示す位置情報を実行管理部18に入力する機能を有する。文字読出部22は、実行管理部18の要求に応じて、文字記憶部21から文字情報を読み出して動画読出部16に文字情報を入力する機能を有する。
The
実行管理部18は、手型認識部12が出力した標準作業手順に従う各作業における位置情報および時間情報を記憶する機能と、文字読出部22が出力した位置情報および時間情報を記憶する機能とを有する。そして、記憶している標準作業手順に従う位置情報によって示される位置および時間情報によって示される時間と、画像入力部10によって撮影された動画にもとづいて画像解析部11が生成した位置情報によって示される位置および時間情報によって示される時間とを比較し、比較結果を示す差分情報を描画読出部15や文字読出部22に入力する機能を有する。なお、実行管理部18は、手型認識部12が出力した位置情報および時間情報と、文字読出部22が出力した位置情報および時間情報とを区別して記憶してもよい。
The
次に、本発明による標準作業実行支援装置の動作について、図面を参照して説明する。図2は、本発明の実施形態の標準作業実行支援装置が、作業の熟練者である作業者Aによる標準作業手順に従う作業にもとづく動画データ、位置情報および時間情報を生成する動作を示すフローチャートである。 Next, the operation of the standard work execution support apparatus according to the present invention will be described with reference to the drawings. FIG. 2 is a flowchart showing an operation in which the standard work execution support apparatus according to the embodiment of the present invention generates moving image data, position information, and time information based on a work in accordance with a standard work procedure by a worker A who is a skilled worker. is there.
ビデオカメラである画像入力部10が作業者Aの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、動画記憶部14に記憶された動画データを動画表示部17に入力する。動画表示部17には、入力された動画データにもとづく動画が表示される。
An
画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Aの手の位置情報と時間情報とを生成する(ステップS10)。図3は、画像解析部11が、作業者Aの手の位置を検出する例を示す説明図である。図3に示す例では、画像の左上端を基点(0,0)とし、横軸をX座標(0≦x≦320)とし、縦軸をY座標(0≦y≦240)としている。そして、図3に示す例では、画像解析部11は、手の位置は、(30,200)であることを検出し、(30,200)を示す位置情報と、手の位置が(30,200)であることを検出したときの時間を示す時間情報とを生成する。
The
例えば、作業中に図形で作業者に指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら描画入力のタイミングで自分の手で所定のジェスチャを行ったときには、画像解析部11によって、作業においてジェスチャが撮影された画像フレームの時間を示す時間情報と当該フレームの画像においてジェスチャが行われた手の位置座標を示す位置情報とが手型認識部12に入力される。
For example, when it is necessary to give an instruction to the worker with a figure during work, when the worker A performs a predetermined gesture with his / her hand at the timing of drawing input while looking at the screen of the moving
手型認識部12は、手の3次元座標を計測してジェスチャ認識を行う(ステップS11のY)。手型認識部12は、ジェスチャ認識の結果と位置情報と時間情報とを描画読出部15に入力する。
The hand
描画読出部15は、手型認識部12が入力したジェスチャ認識の結果に応じた静止画データを描画記憶部13から読み出す(ステップS13)。なお、描画読出部15は、描画記憶部13に記憶されている当該静止画データに対応付けて、手型認識部12が入力した位置情報と時間情報とを描画記憶部13に記憶させてもよい。動画読出部16は、動画記憶部14に記憶されている動画データにもとづく動画に描画読出部15が描画記憶部13から読み出した静止画データにもとづく画像を重ね合せて、動画表示部17に表示させる(ステップS14)。
The
図4は、動画に重ね合わせて動画表示部17に表示させる画像の例を示す説明図である。図4(a)に示す例では、作業者Aによって人差し指を立てるジェスチャが行われている。そして、図4(b)に示す例では、描画読出部15が、人差し指を立てるジェスチャに対応付けられた静止画データである矢印の静止画データを描画記憶部13から読み出し、動画読出部16が、動画を構成する各画像フレームの画像における手の位置(具体的には、例えば、画像解析部11が生成した位置情報によって示される位置)に応じた位置(画像解析部11が生成した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、図4(b)に示す例では指先の位置に相当する位置)に当該静止画データにもとづく画像を重ね合わせて動画表示部17に表示させている。なお、手型認識部12は、ジェスチャが行われた場合に指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、静止画データにもとづく画像を動画表示部17に重畳表示させる位置を決定してもよい。
FIG. 4 is an explanatory diagram illustrating an example of an image displayed on the moving
手型認識部12は、ジェスチャが撮影された画像フレームの時間情報とジェスチャが行われた手の位置を示す位置情報とを実行管理部18に入力する。実行管理部18は、入力された時間情報と位置情報とを対応付けて記憶する(ステップS17)。なお、実行管理部18は、手型認識部12が入力した時間情報および位置情報と、描画読出部15が描画記憶部13から読み出した静止画データとを対応付けて記憶してもよい。
The hand
また、例えば、作業中に文字で指示を与える必要がある場合に、作業者Aが、動画表示部17の画面を見ながら、作業手順や作業の注意点に関する文字入力のタイミングで、当該作業者Aの頭部に装着された音声入力部19に音声を入力する。
In addition, for example, when it is necessary to give an instruction by characters during work, the worker A looks at the screen of the moving
音声認識部20は、音声入力部19に音声が入力された場合に(ステップS12のY)、音声入力部19に入力された音声を認識して文字情報に変換し(ステップS15)、変換後の文字情報と、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報と、音声入力部19に音声が入力されたときの位置を示す位置情報とを対応付けて文字記憶部22に記憶させる。
When speech is input to the speech input unit 19 (Y in step S12), the
なお、音声入力部19に音声が入力されたタイミングに応じた時間を示す時間情報は、例えば、音声入力部19に音声が入力されたときに動画表示部17に表示されている画像フレームの時間情報である。また、音声入力部19に音声が入力されたときの位置を示す位置情報は、例えば、音声入力部19に音声が入力されたときに画像解析部11によって生成された位置情報である。
Note that the time information indicating the time corresponding to the timing when the sound is input to the
そして、動画読出部16は、画像入力部10が撮影した動画に文字情報にもとづく文字を重ね合わせて動画表示部17に表示させる(ステップS16)。なお、動画読出部16が動画表示部17に表示される動画において、文字を重畳表示させる位置は、文字読出部22が文字記憶部21から読み出した位置情報によって示される位置に応じた位置(文字記憶部21から読み出した位置情報によって示される位置から所定の方向に所定の距離離れた位置であって、例えば、作業者Aの指先の位置に相当する位置)である。なお、手型認識部12は、音声入力部19に音声が入力された場合に、ジェスチャが行われたときに指先の位置を示す位置情報を生成し、動画読出部16は、手型認識部12が生成した指先の位置を示す位置情報にもとづいて、文字情報にもとづく文字を動画表示部17に重畳表示させる位置を決定してもよい。
Then, the moving
文字読出部22は、文字記憶部21に記憶された時間情報、および位置情報を実行管理部18に入力する。実行管理部18は、入力された時間情報、および位置情報を対応付けて記憶する(ステップS17)。なお、文字読出部22は、時間情報、および位置情報を実行管理部18に送信する場合に、文字記憶部21に当該時間情報および位置情報に対応付けられて記憶された文字情報を実行管理部18に入力してもよく、実行管理部18は、文字読出部22が入力した時間情報、位置情報および文字情報を対応付けて記憶してもよい。
The
図4(c),(d)に示す例では、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、音声認識部20によって文字情報に変換された「三カ所グリスを注入」という文字が音声入力されたときの手の位置に応じた位置に表示されている。
In the example shown in FIGS. 4C and 4D, since the voice “Inject three places of grease” is input to the
図5は、作業者Aによる標準作業手順に従う作業の進行に応じて動画表示部17に重畳表示される画像の例を示す説明図である。図5に示す例では、作業工程1が、時間「0:00:00」に開始され、「0:01:30」に終了している。また、作業工程2が、時間「0:01:45」に開始され、「0:03:00」に終了している。そして、作業工程1および作業工程2の開始時および終了時に、作業者Aによって人差し指を立てるジェスチャが行われ、当該ジェスチャに応じた画像である矢印が動画表示部17に表示されることが示されている。
FIG. 5 is an explanatory diagram illustrating an example of an image that is superimposed and displayed on the moving
また、図5に示す例では、作業工程1の開始時(時間「0:00:00」)の手の位置は(20,50)であり、時間「0:00:30」に、手の位置(30,200)で、グリス注入の作業が開始されて、音声入力部19に、「三カ所グリスを注入」という音声が入力されたので、動画表示部17に、「三カ所グリスを注入」という文字が重畳表示される。そして、作業工程1の終了時(時間「0:01:30」)の手の位置は、(120,100)である。
In the example shown in FIG. 5, the position of the hand at the start of work process 1 (time “00:00”) is (20, 50), and at time “00:00:30” At the position (30, 200), the work of injecting the grease is started, and the voice “injecting three places of grease” is inputted to the
また、図5に示す例では、作業工程2の開始時(時間「0:01:45」)の手の位置は、(50,50)であり、時間「0:02:15」に、手の位置(200,200)で、切断の作業が開始されて、音声入力部19に、「右側先端部カット」という音声が入力されたので、動画表示部17に、「右側先端部カット」という文字が表示される。そして、作業工程2の終了時(時間「0:03:00」)の手の位置は(300,200)である。
In the example shown in FIG. 5, the position of the hand at the start of work process 2 (time “0:01:45”) is (50, 50), and at time “0:02:15” Since the cutting operation is started at the position (200, 200) and the voice “cutting the right tip” is input to the
次に、本発明による標準作業実行支援装置が、生成した位置情報および時間情報にもとづいて作業者に指示する動作について、図面を参照して説明する。図6は、本発明による標準作業実行支援装置が作業者Bに指示する動作を示すフローチャートである。 Next, an operation in which the standard work execution support apparatus according to the present invention instructs the worker based on the generated position information and time information will be described with reference to the drawings. FIG. 6 is a flowchart showing an operation instructed to the worker B by the standard work execution support apparatus according to the present invention.
ビデオカメラである画像入力部10が作業者Bの頭部付近に装着され、作業している状況を撮影する。画像入力部10が撮影した動画の動画データは動画記憶部14に記憶される。また、動画読出部16は、画像入力部10が撮影した動画を動画表示部17に入力する。動画表示部17には、入力された動画が表示される。
An
画像解析部11は、画像入力部10が撮影した動画にもとづいて、作業者Bの手の位置情報と時間情報とを生成する(ステップS20)。
The
手型認識部12は、画像解析部11が生成した位置情報と時間情報とを実行管理部18に入力する。実行管理部18は、手型認識部12が入力した位置情報および時間情報と、記憶している位置情報および時間情報とをそれぞれ比較し(ステップS21)、差分を算出する。
The hand
具体的には、実行管理部18は、例えば、記憶している位置情報によって示される位置に合致する位置を示す位置情報が入力された場合に、記憶している位置情報に対応付けて記憶している時間情報によって示される時間と、入力された時間情報によって示される時間との差分を算出する。また、実行管理部18は、例えば、記憶している時間情報によって示される時間に合致する時間を示す時間情報が入力された場合に、記憶している時間情報に対応付けて記憶している位置情報によって示される位置と、入力された位置情報によって示される位置との差分を算出する。
Specifically, for example, when position information indicating a position matching the position indicated by the stored position information is input, the
そして、実行管理部18は、算出した差分が所定の値を超えている場合に、当該差分を示す差分情報を描画読出部15、および文字読出部22に入力して、動画に重畳表示させる画像に応じたデータの読み出しを要求する。なお、実行管理部18は、差分情報とともに、ステップS21の処理で比較に用いた記憶している位置情報や時間情報を描画読出部15や文字読出部22に入力してもよい。
Then, when the calculated difference exceeds a predetermined value, the
また、実行管理部18は、位置情報および時間情報を出力元に応じて区別して記憶している場合に、出力元に応じて、情報の入力先を決定してもよい。具体的には、例えば、ステップS21の処理で手型認識部12が入力した位置情報および時間情報と比較した位置情報および時間情報が手型認識部12によって入力されて記憶していた場合には、情報を描画読出部15に入力し、文字読出部22によって入力されて記憶していた場合には、情報を文字読出部22に入力すると決定してもよい。
Further, the
描画読出部15は、描画記憶部13から静止画データを読み出す。また、文字読出部22は、文字記憶部21から文字情報を読み出す(ステップS23)。なお、描画読出部15が描画記憶部13から読み出す静止画データは、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた静止画データである。また、文字読出部22が文字記憶部21から読み出す文字情報は、例えば、差分情報とともに入力された位置情報や時間情報に対応付けられた文字情報である。
The
動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データまたは文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字を動画に重ね合わせて動画表示部17に表示させる(ステップS24)。
The moving
実行管理部18は、作業が終了した場合に(ステップS25のY)、ステップS21の処理で比較した結果にもとづいて、差分が標準範囲内である場合に標準作業が実行されたと判定し、差分が標準範囲外である場合に標準作業が実行されていないと判定する(ステップS26)。
When the work is completed (Y in step S25), the
図7は、作業者Aによる標準作業手順に従う作業と作業者Bの作業とを示す説明図である。図8は、作業者Aによる標準作業手順に従う作業工程1の作業中に動画表示部17に表示される画像の例と、作業者Bによる作業工程1の作業中に動画表示部17に表示される画像の例とを示す説明図である。図9は、作業者Aによる標準作業手順に従う作業工程2の作業中に動画表示部に表示される画像の例と、作業者Bによる作業工程2の作業中に動画表示部17に表示される画像の例とを示す説明図である。
FIG. 7 is an explanatory diagram showing work according to the standard work procedure by the worker A and work by the worker B. FIG. 8 illustrates an example of an image displayed on the moving
図7および図8(a)に示す例では、作業者Aは、位置(30,200)で、時間「0:00:30」に、グリス注入を開始したことが示されているのに対し、作業者Bは、位置(30,200)で、時間「0:00:35」にグリス注入を開始している。 In the example shown in FIG. 7 and FIG. 8A, it is shown that the worker A starts the grease injection at the position (30,200) at the time “0:00:30”. The worker B starts the grease injection at the position (30,200) at time “0:00:35”.
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
The
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(30,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(30,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:00:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:00:35」との差分「0:00:05」を算出する。
Specifically, the
実行管理部18は、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示されるグリス注入の作業開始時間である30秒の10%である3秒を超えているので、算出した位置の差分(0,0)、および時間の差分「0:00:05」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
Since the
文字読出部22は、差分情報によって時間の差分が生じていることが示されているので、入力された時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「三カ所グリスを注入」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:00:35」に動画表示部17に「三カ所グリスを注入」という文字が表示される(図8(b)参照)。
Since the
図7および図8(c)に示す例では、作業者Aは、位置(120,100)で、時間「0:01:30」に、作業工程1の作業を終了したことが示されているのに対し、作業者Bは、位置(110,100)で、時間「0:01:30」に作業工程1の作業を終了している。
In the example shown in FIG. 7 and FIG. 8C, it is indicated that the worker A has finished the work of the
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
The
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(120,100)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(110,100)との差分(10,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:30」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:30」との差分「0:00:00」を算出する。
Specifically, the
実行管理部18は、Y軸の位置の差分が0であり、X軸の位置の差分「10」がX軸の最大値「320」の10%を超えておらず、時間の差分が「0:00:00」なので、標準作業手順に従う作業が実行されたと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されたことを示す画像(図7に示す例では「○」)を動画表示部17に表示されている動画に重畳表示させる。
The
図7および図9(a)に示す例では、作業者Aは、位置(50,50)で、時間「0:01:45」に、作業を開始したことが示されているのに対し、作業者Bは、位置(50,100)で、時間「0:01:45」に作業を開始している。 In the example shown in FIG. 7 and FIG. 9A, it is shown that the worker A starts work at the position “50, 50” at time “0:01:45”. Worker B starts work at time (0:01:45) at position (50, 100).
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
The
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(50,50)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(50,100)との差分(0,50)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:01:45」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:01:45」との差分「0:00:00」を算出する。
Specifically, the
実行管理部18は、X軸の位置の差分が0であるが、Y軸の位置の差分「50」がY軸の最大値「240」の10%を超えているので、算出した位置の差分(0,50)、および時間の差分「0:00:00」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
The
描画読出部15は、差分情報によって位置の差分が生じていることが示されているので、入力された位置情報に対応付けられて描画記憶部13に記憶されている静止画データを読み出す。動画読出部16は、描画読出部15が描画記憶部13から読み出した静止画データにもとづく図形である矢印を当該静止画データに対応付けられて記憶されている位置情報によって示される位置で動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:01:45」に動画表示部17に矢印が表示される(図9(a)参照)。
The
図7および図9(b)に示す例では、作業者Aは、位置(200,200)で、時間「0:02:15」に、切断を開始したことが示されているのに対し、作業者Bは、位置(100,100)で、時間「0:02:25」に切断を開始している。 In the example shown in FIG. 7 and FIG. 9B, it is shown that the worker A starts cutting at the position (200, 200) at the time “0:02:15”. Worker B starts cutting at time (0:02:25) at position (100, 100).
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
The
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(200,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(100,100)との差分(100,100)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:02:15」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:02:25」との差分「0:00:10」を算出する。
Specifically, the
実行管理部18は、X軸の位置の差分「100」がX軸の最大値「320」の10%を超え、Y軸の位置の差分「100」がY軸の最大値「240」の最大値の10%を超え、時間の差分が記憶されている時間情報にもとづいて算出される作業工程2が開始されてから切断作業が開始されるまでの時間である30秒の10%である3秒を超えているので、算出した位置の差分(100,100)、および時間の差分「0:00:10」を示す差分情報とともに、記憶している位置情報および時間情報を描画読出部15および文字読出部22に入力する。
The
文字読出部22は、差分情報によって位置の差分および時間の差分が生じていることが示されているので、入力された位置情報および時間情報に対応付けられて文字記憶部21に記憶されている文字情報を読み出す。動画読出部16は、文字読出部22が文字記憶部21から読み出した文字情報にもとづく文字「右側先端部をカット」を動画に重ね合わせて動画表示部17に表示させ、作業者Bに注意を喚起する。つまり、時間「0:02:25」に動画表示部17に「右側先端部をカット」という文字が表示される(図9(b)参照)。
The
図7および図9(c)に示す例では、作業者Aは、位置(300,200)で、時間「0:03:00」に、作業工程2の作業を終了したことが示されているのに対し、作業者は、位置(300,200)で、時間「0:03:10」に作業工程2の作業を終了している。 In the example shown in FIG. 7 and FIG. 9C, it is indicated that the worker A has finished the work of the work process 2 at the position (300, 200) at the time “0:03:00”. On the other hand, the worker finishes the work of work process 2 at time “0:03:10” at the position (300, 200).
実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報および時間情報によって示される位置および時間と、作業者Bの作業内容の位置および時間との差分を算出する。
The
具体的には、実行管理部18は、作業者Aの作業にもとづいて記憶している位置情報によって示される位置(300,200)と作業者Bの作業にもとづいて入力された位置情報によって示される位置(300,200)との差分(0,0)を算出する。また、実行管理部18は、作業者Aの作業にもとづいて記憶している時間情報によって示される時間「0:03:00」と作業者Bの作業にもとづいて入力された時間情報によって示される時間「0:03:10」との差分「0:00:10」を算出する。
Specifically, the
実行管理部18は、位置の差分が(0,0)であり、時間の差分が作業者Aの作業にもとづいて記憶している時間情報によって示される作業工程2の作業終了までの時間である75秒の10%である7.5秒を超えているので、標準作業手順に従う作業が実行されなかったと判断する。そして、実行管理部18は、標準作業手順に従う作業が実行されなかったことを示す画像(図7に示す例では「△」)を動画表示部17に表示されている動画に重畳表示させる。
The
本実施形態によれば、熟練者である作業者Aによる標準作業手順に従う作業中に、動画表示部17に表示させる図形や文字の入力が行われるので、時間や手間をかけずに、容易に動画データを作成することができる。
According to this embodiment, since the figure and the character to be displayed on the moving
また、作業者Bによる作業中に、標準作業手順に従う作業内容および時間と、作業者Bによる作業内容および時間との差異が所定の値を超えていることを検出した場合に、図形や文字を動画表示部17に表示させるので、作業者Bに注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。
Further, when it is detected that the difference between the work content and time in accordance with the standard work procedure and the work content and time by the worker B exceeds a predetermined value during the work by the worker B, a figure or a character is displayed. Since it is displayed on the moving
また、熟練者である作業者Aによる作業を撮影した動画データを動画記憶部14に記録することによって、当該動画データを作業進捗管理や作業分析に活用することができる。
Further, by recording the moving image data obtained by photographing the work by the worker A who is an expert in the moving
また、一般的な作業管理システムでは、作業の進捗状況を確認する場合に、作業開始時や作業終了時に作業者が当該システムに情報を入力しなければならないが、ジェスチャによって情報が入力されるので、情報の入力操作を忘れたりすることによる作業漏れを防ぎ、作業精度を向上させることができる。 In a general work management system, when checking the progress of work, the worker must input information into the system at the start of work or at the end of work, but information is input by gestures. Therefore, it is possible to prevent work leakage due to forgetting to input information and improve work accuracy.
次に、本発明の概要について説明する。図10は、本発明の概要を示すブロック図である。図10に示すように、本発明による標準作業実行支援装置100は、標準作業情報記憶部101(図1に示す実行管理部18に相当)、画像解析部102(図1に示す画像解析部11に相当)、差異算出部103(図1に示す実行管理部18に相当)、および重畳部104(図1に示す描画読出部15、文字読出部22、および動画読出部16に相当)を含む。
Next, the outline of the present invention will be described. FIG. 10 is a block diagram showing an outline of the present invention. As shown in FIG. 10, a standard work
標準作業情報記憶部101は、標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、手が位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する。
The standard work
画像解析部102は、動画撮影部(図1に示す画像入力部10に相当)によって撮影された他の作業者による作業の動画を構成する画像フレームにおける他の作業者の手の位置を示す位置情報を生成する。
The
差異算出部103は、標準作業情報記憶部101に記憶されている時間情報に対応する位置情報によって示される位置と、動画撮影部によって撮影された動画における時間情報によって示されるタイミングで画像解析部102が生成した位置情報によって示される位置との差異を算出する。
The
また、差異算出部103は、標準作業情報記憶部101に記憶されている位置情報に対応する時間情報によって示されるタイミングと、動画撮影部によって撮影された動画にもとづいて、位置情報によって示される位置に合致する位置を示す位置情報を画像解析部102が生成したタイミングとの差異を算出する。
Further, the
重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、動画撮影部によって撮影された動画に、標準作業情報記憶部101に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段(図1に示す動画表示部17に相当)に表示させる。
When the calculation result of the
そのような構成によれば、作業者による作業中に、標準作業手順に従う作業内容および時間と、作業者による作業内容および時間との差異が所定の値を超えていることを検出した場合に、画像を表示手段に重畳表示させるので、作業者に注意を喚起して作業内容の確認を促し、作業ミスを未然に防ぐことができる。 According to such a configuration, during the work by the worker, when it is detected that the difference between the work content and time according to the standard work procedure and the work content and time by the worker exceeds a predetermined value, Since the image is superimposed and displayed on the display means, the operator can be alerted to confirm the work contents, and work mistakes can be prevented.
また、上記の実施形態では、以下の(1)〜(4)に示すような標準作業実行支援装置も開示されている。 Further, in the above embodiment, standard work execution support devices as shown in the following (1) to (4) are also disclosed.
(1)重畳部104が、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する静止画データを記憶する静止画データ記憶部(図1に示す描画記憶部13に相当)から位置情報または時間情報に対応する静止画データを読み出して、動画撮影部によって撮影された動画に、静止画データにもとづく静止画を重畳して表示手段に表示させる標準作業実行支援装置。
(1) The
(2)標準作業手順に従う作業の動画における作業者の所定のジェスチャを認識するジェスチャ認識部(図1に示す手型認識部12に相当)と、画像解析部102が生成した位置情報と、動画において所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部101に記憶させるジェスチャ情報登録部(図1に示す手型認識部12に相当)とを備え、静止画データ記憶部には、作業者による所定のジェスチャに応じた静止画データが予め記憶され、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、所定のジェスチャが行われた位置を示す位置情報を生成し、ジェスチャ情報登録部は、所定のジェスチャに対応付けられた静止画データに、位置情報と時間情報とを対応付けて静止画データ記憶部に記憶させる標準作業実行支援装置。
(2) A gesture recognition unit (corresponding to the hand
(3)重畳部104は、差異算出部103の算出結果が所定の値よりも大きい場合に、標準作業情報記憶部101に記憶されている位置情報および時間情報に対応する文字データを記憶する文字データ記憶部(図1に示す文字記憶部21に相当)から位置情報または時間情報に対応する文字データを読み出して、動画撮影部によって撮影された動画に、文字データにもとづく文字を重畳して表示手段に表示させる標準作業実行支援装置。
(3) The
(4)入力された音声を認識して、音声にもとづく文字データと、音声が入力されたタイミングを示す時間情報とを生成して文字データ記憶部に記憶させる音声認識部(図1に示す音声認識部20に相当)と、画像解析部102が生成した位置情報と音声認識部が生成した時間情報とを標準作業情報記憶部101に記憶させる音声情報登録部(図1に示す文字読出部22に相当)とを備え、画像解析部102は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、タイミングにおける作業者の手の位置を示す位置情報を生成し、音声情報登録部は、位置情報を文字データと時間情報とに対応付けて文字データ記憶部に記憶させる標準作業実行支援装置。
(4) A voice recognition unit (speech shown in FIG. 1) that recognizes input voice, generates character data based on the voice, and time information indicating the timing when the voice is input and stores it in the character data storage unit. A voice information registration unit (
本発明を、作業者による標準作業手順に従う作業の実行を作業中に支援するためのシステムに適用する事ができる。 The present invention can be applied to a system for supporting execution of work according to a standard work procedure by an operator during the work.
10 画像入力部
11、102 画像解析部
12 手型認識部
13 描画記憶部
14 動画記憶部
15 描画読出部
16 動画読出部
17 動画表示部
18 実行管理部
19 音声入力部
20 音声認識部
21 文字記憶部
22 文字読出部
100 標準作業実行支援装置
101 標準作業情報記憶部
103 差異算出部
104 重畳部
DESCRIPTION OF
Claims (10)
動画撮影部によって撮影された他の作業者による作業の動画を構成する画像フレームにおける前記他の作業者の手の位置を示す位置情報を生成する画像解析部と、
前記標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された前記動画における前記時間情報によって示されるタイミングで前記画像解析部が生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された前記動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を前記画像解析部が生成したタイミングとの差異を算出する差異算出部と、
前記差異算出部の算出結果が所定の値よりも大きい場合に、前記動画撮影部によって撮影された前記動画に、前記標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる重畳部とを備えた
ことを特徴とする標準作業実行支援装置。 The position information indicating the position of the worker's hand in the image frame constituting the moving image of the work following the standard work procedure and the time information indicating the timing at which the hand is at the position indicated by the position information are stored in association with each other. A standard work information storage unit;
An image analysis unit that generates position information indicating a position of the hand of the other worker in an image frame constituting a moving image of the work performed by the other worker taken by the moving image shooting unit;
The image analysis unit generates the position indicated by the position information corresponding to the time information stored in the standard work information storage unit and the timing indicated by the time information in the moving image captured by the moving image capturing unit. Based on the difference between the position indicated by the position information, the timing indicated by the time information corresponding to the position information stored in the standard work information storage unit, and the moving image shot by the moving image shooting unit, A difference calculation unit that calculates a difference from the timing at which the image analysis unit generates position information indicating a position that matches the position indicated by the position information;
When the calculation result of the difference calculation unit is larger than a predetermined value, an image corresponding to the position information or time information stored in the standard work information storage unit is added to the moving image shot by the moving image shooting unit. A standard work execution support apparatus, comprising: a superimposing unit that superimposes and displays on a display means.
請求項1記載の標準作業実行支援装置。 When the calculation result of the difference calculation unit is larger than a predetermined value, the superimposition unit is configured to store a still image data corresponding to the position information and time information stored in the standard work information storage unit. The standard according to claim 1, wherein the still image data corresponding to the position information or the time information is read, and a still image based on the still image data is superimposed on the moving image captured by the moving image capturing unit and displayed on the display means. Work execution support device.
画像解析部が生成した位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させるジェスチャ情報登録部とを備え、
静止画データ記憶部には、作業者による前記所定のジェスチャに応じた静止画データが予め記憶され、
前記画像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記所定のジェスチャが行われた位置を示す位置情報を生成し、
前記ジェスチャ情報登録部は、前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記静止画データ記憶部に記憶させる
請求項2記載の標準作業実行支援装置。 A gesture recognizing unit for recognizing a predetermined gesture of the worker in the video of the work according to the standard work procedure;
A gesture information registration unit that stores position information generated by the image analysis unit and time information indicating timing at which the predetermined gesture is captured in the moving image in a standard work information storage unit;
In the still image data storage unit, still image data corresponding to the predetermined gesture by the operator is stored in advance,
The image analysis unit generates position information indicating a position where the predetermined gesture is performed in an image frame constituting a moving image of work according to a standard work procedure,
The standard work execution according to claim 2, wherein the gesture information registration unit stores the position information and the time information in association with the still image data associated with the predetermined gesture in the still image data storage unit. Support device.
請求項1から請求項3のうちいずれか1項記載の標準作業実行支援装置。 When the calculation result of the difference calculation unit is larger than a predetermined value, the superimposition unit stores the position data from the character data storage unit that stores character data corresponding to the position information and time information stored in the standard work information storage unit. The character data corresponding to the information or the time information is read out, and the character based on the character data is superimposed on the moving image photographed by the moving image photographing unit and displayed on the display means. The standard work execution support apparatus according to Item 1.
画像解析部が生成した位置情報と前記音声認識部が生成した時間情報とを標準作業情報記憶部に記憶させる音声情報登録部とを備え、
前記画像解析部は、標準作業手順に従う作業の動画を構成する画像フレームにおいて、前記タイミングにおける作業者の手の位置を示す位置情報を生成し、
前記音声情報登録部は、前記位置情報を前記文字データと前記時間情報とに対応付けて前記文字データ記憶部に記憶させる
請求項4記載の標準作業実行支援装置。 A voice recognition unit that recognizes an input voice, generates character data based on the voice, and time information indicating a timing at which the voice is input, and stores the generated time information in a character data storage unit;
A voice information registration unit that stores position information generated by the image analysis unit and time information generated by the voice recognition unit in a standard work information storage unit;
The image analysis unit generates position information indicating the position of the operator's hand at the timing in an image frame constituting a moving image of work according to a standard work procedure,
The standard work execution support apparatus according to claim 4, wherein the voice information registration unit stores the position information in the character data storage unit in association with the character data and the time information.
標準作業手順に従う作業の動画を構成する画像フレームにおける作業者の手の位置を示す位置情報と、前記手が前記位置情報によって示される位置にあるタイミングを示す時間情報とを予め対応付けて記憶する標準作業情報記憶部に記憶されている時間情報に対応する位置情報によって示される位置と、前記動画撮影部によって撮影された前記動画における前記時間情報によって示されるタイミングで生成した位置情報によって示される位置との差異、および前記標準作業情報記憶部に記憶されている位置情報に対応する時間情報によって示されるタイミングと、前記動画撮影部によって撮影された前記動画にもとづいて、前記位置情報によって示される位置に合致する位置を示す位置情報を生成したタイミングとの差異を算出し、
算出結果が所定の値よりも大きい場合に、前記動画撮影部によって撮影された前記動画に、前記標準作業情報記憶部に記憶されている位置情報または時間情報に対応する画像を重畳して表示手段に表示させる
ことを特徴とする標準作業実行支援方法。 Generating position information indicating a position of the hand of the other worker in an image frame constituting a moving image of work by another worker photographed by the moving image photographing unit;
The position information indicating the position of the worker's hand in the image frame constituting the moving image of the work following the standard work procedure and the time information indicating the timing at which the hand is at the position indicated by the position information are stored in association with each other. The position indicated by the position information corresponding to the time information stored in the standard work information storage unit, and the position indicated by the position information generated at the timing indicated by the time information in the moving image captured by the moving image capturing unit And the position indicated by the position information based on the timing indicated by the time information corresponding to the position information stored in the standard work information storage unit and the moving image shot by the moving image shooting unit Calculate the difference from the timing that generated the position information indicating the position that matches
When the calculation result is larger than a predetermined value, a display unit that superimposes an image corresponding to position information or time information stored in the standard work information storage unit on the moving image captured by the moving image capturing unit A standard work execution support method characterized by being displayed on the screen.
請求項6記載の標準作業実行支援方法。 When the difference calculation result is larger than a predetermined value, the position information or the time from the still image data storage unit that stores the still image data corresponding to the position information and time information stored in the standard work information storage unit The standard work execution support method according to claim 6, wherein still image data corresponding to the information is read, and a still image based on the still image data is superimposed on a moving image captured by the moving image capturing unit and displayed on a display unit.
標準作業手順に従う作業の動画における作業者の前記所定のジェスチャを認識し、
前記所定のジェスチャが行われた位置を示す位置情報を生成し、
前記位置情報と、前記動画において前記所定のジェスチャが撮影されたタイミングを示す時間情報とを標準作業情報記憶部に記憶させ、
前記所定のジェスチャに対応付けられた静止画データに、前記位置情報と前記時間情報とを対応付けて前記静止画データ記憶部に記憶させる
請求項7記載の標準作業実行支援方法。 In the still image data storage unit, still image data corresponding to a predetermined gesture by the operator is stored in advance,
Recognizing the predetermined gesture of the worker in the video of the work following the standard work procedure;
Generating position information indicating a position where the predetermined gesture is performed;
Storing the position information and time information indicating a timing at which the predetermined gesture is captured in the moving image in a standard work information storage unit;
The standard work execution support method according to claim 7, wherein the position information and the time information are associated with each other and stored in the still image data storage unit in the still image data associated with the predetermined gesture.
請求項6から請求項8のうちいずれか1項記載の標準作業実行支援方法。 When the difference calculation result is larger than a predetermined value, the position information or the time information is stored in the position information or the time information from the character data storage unit that stores character data corresponding to the position information and time information stored in the standard work information storage unit. The standard work according to any one of claims 6 to 8, wherein the corresponding character data is read out, and the character based on the character data is superimposed on the moving image photographed by the moving image photographing unit and displayed on the display means. Execution support method.
前記タイミングにおける標準作業手順に従う作業を行う作業者の手の位置を示す位置情報と前記時間情報とを標準作業情報記憶部に記憶させ、
前記位置情報を前記文字データと前記時間情報とに対応付けて前記文字データ記憶部に記憶させる
請求項9記載の標準作業実行支援方法。 Recognizing the input voice, generating character data based on the voice and time information indicating the timing at which the voice is input and storing it in the character data storage unit,
Store the position information indicating the position of the hand of the worker who performs the work according to the standard work procedure at the timing and the time information in the standard work information storage unit,
The standard work execution support method according to claim 9, wherein the position information is stored in the character data storage unit in association with the character data and the time information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023329A JP5177154B2 (en) | 2010-02-04 | 2010-02-04 | Standard work execution support device and standard work execution support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023329A JP5177154B2 (en) | 2010-02-04 | 2010-02-04 | Standard work execution support device and standard work execution support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011164694A true JP2011164694A (en) | 2011-08-25 |
JP5177154B2 JP5177154B2 (en) | 2013-04-03 |
Family
ID=44595348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010023329A Expired - Fee Related JP5177154B2 (en) | 2010-02-04 | 2010-02-04 | Standard work execution support device and standard work execution support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5177154B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097466A (en) * | 2011-10-28 | 2013-05-20 | Hitachi Ltd | Work support system, work support method, and terminal for work |
JP2014232531A (en) * | 2013-05-28 | 2014-12-11 | ザ・ボーイング・カンパニーTheBoeing Company | Tracking user to support tasks performed on complex-system components |
WO2017017737A1 (en) * | 2015-07-24 | 2017-02-02 | 富士通株式会社 | Display method, monitor result output method, information processing device, and display program |
US9811719B2 (en) | 2015-05-21 | 2017-11-07 | Fuji Xerox Co., Ltd. | Information processing apparatus and method, and non-transitory computer readable medium |
JP2018088173A (en) * | 2016-11-29 | 2018-06-07 | ケーディーアイコンズ株式会社 | Information processing device |
JP2019016226A (en) * | 2017-07-07 | 2019-01-31 | 株式会社日立製作所 | Work data management system and work data management method |
JP2019020913A (en) * | 2017-07-13 | 2019-02-07 | 株式会社東芝 | Information processing apparatus, method and program |
WO2020003545A1 (en) * | 2018-06-29 | 2020-01-02 | 株式会社日立システムズ | Content creation system |
US10755222B2 (en) | 2014-06-13 | 2020-08-25 | Hitachi Systems, Ltd. | Work management apparatus, work defect prevention program, and work defect prevention method |
JP2022031286A (en) * | 2017-07-13 | 2022-02-18 | 株式会社東芝 | Information processing apparatus, method and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173297A (en) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | Recognition method using timely relation of multi-modal expression with voice and gesture |
JPH11175517A (en) * | 1997-12-10 | 1999-07-02 | Canon Inc | Information processor and method therefor |
JP2003167613A (en) * | 2001-11-30 | 2003-06-13 | Sharp Corp | Operation management system and method and recording medium with its program for realizing the same method stored |
JP2008108008A (en) * | 2006-10-24 | 2008-05-08 | Omron Corp | Moving pattern specification device, moving pattern specification method, moving pattern specification program, and recording medium that recorded this |
JP2008171211A (en) * | 2007-01-11 | 2008-07-24 | Ricoh Co Ltd | Data processor, and storage medium storing program therefor |
-
2010
- 2010-02-04 JP JP2010023329A patent/JP5177154B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173297A (en) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | Recognition method using timely relation of multi-modal expression with voice and gesture |
JPH11175517A (en) * | 1997-12-10 | 1999-07-02 | Canon Inc | Information processor and method therefor |
JP2003167613A (en) * | 2001-11-30 | 2003-06-13 | Sharp Corp | Operation management system and method and recording medium with its program for realizing the same method stored |
JP2008108008A (en) * | 2006-10-24 | 2008-05-08 | Omron Corp | Moving pattern specification device, moving pattern specification method, moving pattern specification program, and recording medium that recorded this |
JP2008171211A (en) * | 2007-01-11 | 2008-07-24 | Ricoh Co Ltd | Data processor, and storage medium storing program therefor |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097466A (en) * | 2011-10-28 | 2013-05-20 | Hitachi Ltd | Work support system, work support method, and terminal for work |
JP2014232531A (en) * | 2013-05-28 | 2014-12-11 | ザ・ボーイング・カンパニーTheBoeing Company | Tracking user to support tasks performed on complex-system components |
US10755222B2 (en) | 2014-06-13 | 2020-08-25 | Hitachi Systems, Ltd. | Work management apparatus, work defect prevention program, and work defect prevention method |
US9811719B2 (en) | 2015-05-21 | 2017-11-07 | Fuji Xerox Co., Ltd. | Information processing apparatus and method, and non-transitory computer readable medium |
WO2017017737A1 (en) * | 2015-07-24 | 2017-02-02 | 富士通株式会社 | Display method, monitor result output method, information processing device, and display program |
JP2018088173A (en) * | 2016-11-29 | 2018-06-07 | ケーディーアイコンズ株式会社 | Information processing device |
US10657477B2 (en) * | 2017-07-07 | 2020-05-19 | Hitachi, Ltd. | Work data management system and work data management method |
JP2019016226A (en) * | 2017-07-07 | 2019-01-31 | 株式会社日立製作所 | Work data management system and work data management method |
JP2019020913A (en) * | 2017-07-13 | 2019-02-07 | 株式会社東芝 | Information processing apparatus, method and program |
US10971029B2 (en) | 2017-07-13 | 2021-04-06 | Kabushiki Kaisha Toshiba | Information processing device, method, and storage medium |
JP2022031286A (en) * | 2017-07-13 | 2022-02-18 | 株式会社東芝 | Information processing apparatus, method and program |
JP7268121B2 (en) | 2017-07-13 | 2023-05-02 | 株式会社東芝 | Information processing device, method and program |
WO2020003545A1 (en) * | 2018-06-29 | 2020-01-02 | 株式会社日立システムズ | Content creation system |
JP2020003707A (en) * | 2018-06-29 | 2020-01-09 | 株式会社日立システムズ | Content generation system |
JP7191560B2 (en) | 2018-06-29 | 2022-12-19 | 株式会社日立システムズ | content creation system |
Also Published As
Publication number | Publication date |
---|---|
JP5177154B2 (en) | 2013-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5177154B2 (en) | Standard work execution support device and standard work execution support method | |
KR101813834B1 (en) | Image processing device, image processing method, image processing program and photographing assist equipment | |
JP5839553B2 (en) | Work support system, work support method, and work terminal | |
US20180027218A1 (en) | Work assistance device, work assistance system, work assistance method, and recording medium storing work assistance program | |
JP2018192230A (en) | Eyebrow shape guide device and method therefor | |
JP2008225913A (en) | Operation support system, operation support device, and operation support method | |
US20170220105A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JPWO2020012955A1 (en) | Information processing equipment, information processing methods, and programs | |
JPWO2016084151A1 (en) | Work support system, work support device, and work support method | |
JPWO2020021858A5 (en) | Imaging support device, imaging support method and imaging support program | |
JP6710555B2 (en) | Image display system, information processing device, image display method, and computer program | |
JP2009289046A (en) | Operation support device and method using three-dimensional data | |
JP5222646B2 (en) | Terminal device, display control method, and display control program | |
WO2016157528A1 (en) | Work assistance apparatus | |
US20230244318A1 (en) | Program, head-mounted display, and information processing device | |
JP2015219538A (en) | Work support device and work support method | |
JP2017211746A (en) | Inspection work assist device and inspection work assist method | |
CN115552913A (en) | Information processing method, information processing apparatus, program, and information processing system | |
JP4568121B2 (en) | Remote work support system, remote work support method and program | |
KR102538056B1 (en) | Building management system using augmented reality | |
JP2011103514A (en) | Video information processor | |
JP5522591B2 (en) | Mobile terminal device and presentation method | |
JP2018081149A (en) | Image output device, remote conference system, and image output method | |
JP7167654B2 (en) | Information processing device, head mounted display, computer program and image display system | |
JP2008014825A (en) | Method and program for measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121022 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121224 |
|
LAPS | Cancellation because of no payment of annual fees |