JPWO2020157821A1 - Work support system - Google Patents

Work support system Download PDF

Info

Publication number
JPWO2020157821A1
JPWO2020157821A1 JP2020568910A JP2020568910A JPWO2020157821A1 JP WO2020157821 A1 JPWO2020157821 A1 JP WO2020157821A1 JP 2020568910 A JP2020568910 A JP 2020568910A JP 2020568910 A JP2020568910 A JP 2020568910A JP WO2020157821 A1 JPWO2020157821 A1 JP WO2020157821A1
Authority
JP
Japan
Prior art keywords
unit
work
specific
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020568910A
Other languages
Japanese (ja)
Other versions
JP7034340B2 (en
Inventor
将則 増井
将則 増井
高志 林田
高志 林田
陽太 西本
陽太 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Publication of JPWO2020157821A1 publication Critical patent/JPWO2020157821A1/en
Application granted granted Critical
Publication of JP7034340B2 publication Critical patent/JP7034340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

作業者(11)を撮像するカメラ(1)と、作業領域を撮像するカメラ(2)と、作業領域に入力画像を投影するプロジェクタ(3)と、カメラ(1)による撮像結果から作業者(11)の位置を特定する特定部(402)と、カメラ(2)による撮像結果から作業領域に存在する物体の位置を特定する特定部(403)と、作業指示を表すアイコンである3次元データを順に抽出する抽出部(404)と、特定部(402)による特定結果及び特定部(403)による特定結果に基づいて、3次元データから疑似3次元画像を生成する画像生成部(405)と、疑似3次元画像を示すデータをプロジェクタ(3)に出力する出力部(407)と、作業者(11)による作業完了を確認して抽出部(404)に対して次の3次元データの抽出を指示する確認指示部(408)とを備えた。A camera (1) that captures the worker (11), a camera (2) that captures the work area, a projector (3) that projects an input image onto the work area, and a worker (1) based on the imaging results of the camera (1). A specific part (402) that specifies the position of 11), a specific part (403) that specifies the position of an object existing in the work area from the image capture result by the camera (2), and three-dimensional data that is an icon representing a work instruction. An extraction unit (404) that sequentially extracts images, and an image generation unit (405) that generates a pseudo three-dimensional image from three-dimensional data based on the specific result by the specific unit (402) and the specific result by the specific unit (403). , The output unit (407) that outputs data indicating a pseudo three-dimensional image to the projector (3), and the extraction unit (404) that confirms the completion of the work by the operator (11) and extracts the next three-dimensional data. It is provided with a confirmation instruction unit (408) for instructing.

Description

この発明は、作業指示を行う作業支援システムに関する。 The present invention relates to a work support system for giving work instructions.

従来、作業者は、製品に対して組立作業等の作業を行う場合、作業要領書又はチェックリスト等の書類或いはモニタを用いて作業指示を確認した上で、作業を行っている。 Conventionally, when performing work such as assembly work on a product, the worker performs the work after confirming the work instruction using a document such as a work procedure or a checklist or a monitor.

一方、書類又はモニタは、製品が置かれた作業領域とは異なる領域に置かれている。そのため、作業者は、作業指示を確認する度に製品から目を離して書類又はモニタ側に振り返る必要がある。また、製品を置く作業領域とは別に書類又はモニタを置く領域が必要となる。また、書類又はモニタによる作業指示では文字が用いられることが多いが、この場合、例えば言語の異なる作業員が混在する工場では翻訳が必要となる。そのため、文字による作業指示はグローバル化の観点から望ましくない。 On the other hand, the document or monitor is placed in an area different from the work area where the product is placed. Therefore, the operator needs to take his eyes off the product and look back at the document or the monitor every time he confirms the work instruction. In addition, an area for placing documents or monitors is required in addition to the work area for placing products. In addition, characters are often used in work instructions by documents or monitors, but in this case, for example, in a factory where workers of different languages coexist, translation is required. Therefore, written work instructions are not desirable from the viewpoint of globalization.

これに対し、製品の特定箇所に円又は矢印等の2次元画像を投影するシステムが知られている(例えば特許文献1参照)。
また、作業者が装着するHMD(Head Mounted Display)等の装置に映像を投影して作業指示を行うシステムも知られている。
On the other hand, a system for projecting a two-dimensional image such as a circle or an arrow on a specific part of a product is known (see, for example, Patent Document 1).
Further, there is also known a system in which an image is projected onto a device such as an HMD (Head Mounted Display) worn by an operator to give a work instruction.

国際公開2016/084151号International Publication 2016/084151

しかしながら、製品に円又は矢印等の2次元画像を投影する方法では、作業箇所は指示可能であるが、例えば部品をどのように組付けるのかといった具体的な作業内容までは指示が困難である。よって、このシステムでは、別途、書類又はモニタによる作業指示が不可欠である。
また、HMD等の装置に映像を投影する方法では、当該装置を作業者毎に用意する必要があり、また、当該装置を装着した状態での作業は煩わしい。
However, in the method of projecting a two-dimensional image such as a circle or an arrow on the product, the work location can be instructed, but it is difficult to instruct the specific work content such as how to assemble the parts. Therefore, in this system, work instructions by documents or monitors are indispensable separately.
Further, in the method of projecting an image on a device such as an HMD, it is necessary to prepare the device for each worker, and the work with the device attached is troublesome.

この発明は、上記のような課題を解決するためになされたもので、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能な作業支援システムを提供することを目的としている。 The present invention has been made to solve the above-mentioned problems, and it is possible to give a work instruction without characters while the operator is looking at the work area without wearing a special device. The purpose is to provide a support system.

この発明に係る作業支援システムは、作業領域で作業を行う作業者を撮像する第1撮像装置と、作業領域を撮像する第2撮像装置と、作業領域に入力画像を投影する投影装置と、第1撮像装置による撮像結果から作業者の位置を特定する第1特定部と、第2撮像装置による撮像結果から作業領域に存在する物体の位置を特定する第2特定部と、作業指示を表すアイコンである3次元データを順に抽出する抽出部と、第1特定部による特定結果及び第2特定部による特定結果に基づいて、抽出部により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部と、画像生成部により生成された疑似3次元画像を示すデータを投影装置に出力する出力部と、作業者による作業完了を確認して抽出部に対して次の3次元データの抽出を指示する確認指示部とを備えたことを特徴とする。 The work support system according to the present invention includes a first imaging device that images a worker who works in the work area, a second imaging device that images the work area, a projection device that projects an input image onto the work area, and a first image. 1 A first specific part that identifies the position of an operator from the image pickup result by the image pickup device, a second specific part that specifies the position of an object existing in the work area from the image pickup result by the second image pickup device, and an icon representing a work instruction. The projected image is viewed from one direction from the extraction unit that extracts the three-dimensional data in order, and the three-dimensional data extracted by the extraction unit based on the specific result by the first specific unit and the specific result by the second specific unit. An image generation unit that generates a pseudo 3D image that can be viewed stereoscopically, an output unit that outputs data indicating the pseudo 3D image generated by the image generation unit to the projection device, and confirmation of work completion by the operator. It is characterized in that it is provided with a confirmation instruction unit that instructs the extraction unit to extract the next three-dimensional data.

この発明によれば、上記のように構成したので、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となる。 According to the present invention, since it is configured as described above, it is possible to give a work instruction without characters while the operator is looking at the work area without wearing a special device.

実施の形態1に係る作業支援システムの構成例を示す図である。It is a figure which shows the configuration example of the work support system which concerns on Embodiment 1. FIG. 実施の形態1における演算装置の構成例を示す図である。It is a figure which shows the configuration example of the arithmetic unit in Embodiment 1. FIG. 実施の形態1における演算装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the arithmetic unit in Embodiment 1. 図4Aは、作業実施前の作業領域の一例を示す図であり、図4Bは実施の形態1における画像生成部及び制御部による投影領域の設定を説明するための図である。FIG. 4A is a diagram showing an example of a work area before the work is performed, and FIG. 4B is a diagram for explaining the setting of the projection area by the image generation unit and the control unit in the first embodiment. 図5Aは、第1の作業の作業指示を表す3次元データの一例を示す図であり、図5Bは、実施の形態1における画像生成部による図5Aに示す3次元データの変形を説明するための図である。FIG. 5A is a diagram showing an example of three-dimensional data representing a work instruction of the first work, and FIG. 5B is for explaining deformation of the three-dimensional data shown in FIG. 5A by the image generation unit in the first embodiment. It is a figure of. 図6Aは、実施の形態1におけるプロジェクタにより第1の作業の作業指示を表す疑似3次元画像が投影された後、作業者が投影画像を見た際の状態を示す図であり、図6Bは、作業者以外の第三者が投影画像を作業者とは別の方向から見た場合を示す図である。FIG. 6A is a diagram showing a state when an operator sees the projected image after a pseudo three-dimensional image representing a work instruction of the first work is projected by the projector according to the first embodiment, and FIG. 6B is a diagram. , Is a diagram showing a case where a third party other than the worker views the projected image from a direction different from that of the worker. 実施の形態1におけるプロジェクタにより第2の作業の作業指示を表す疑似3次元画像が投影された後、作業者が投影画像を見た際の状態を示す図である。It is a figure which shows the state when a worker sees a projected image after the pseudo three-dimensional image which shows the work instruction of a second work is projected by the projector in Embodiment 1. FIG. 図8A、図8Bは、実施の形態1における演算装置のハードウェア構成例を示す図である。8A and 8B are diagrams showing a hardware configuration example of the arithmetic unit according to the first embodiment.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は実施の形態1に係る作業支援システムの構成例を示す図である。
作業支援システムは、作業領域で製品12に対して組立作業等の作業を行う作業者11に対し、作業指示を行う。作業支援システムは、図1に示すように、カメラ(第1撮像装置)1、カメラ(第2撮像装置)2、プロジェクタ(投影装置)3及び演算装置4を備えている。製品12は、台車13に載せられて作業領域に移動される場合、又は、作業領域に設けられた作業面14(図4等参照)に置かれる場合等がある。図1では、製品12が台車13に載せられた状態で作業領域に移動され、作業者11はこの台車13に載せられた製品12に対して作業を行う場合を示している。なお、1つの作業領域で作業を行う作業者11は1人であるとする。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1.
FIG. 1 is a diagram showing a configuration example of a work support system according to the first embodiment.
The work support system gives work instructions to the worker 11 who performs work such as assembly work on the product 12 in the work area. As shown in FIG. 1, the work support system includes a camera (first imaging device) 1, a camera (second imaging device) 2, a projector (projection device) 3, and an arithmetic unit 4. The product 12 may be placed on a trolley 13 and moved to a work area, or may be placed on a work surface 14 (see FIG. 4 or the like) provided in the work area. FIG. 1 shows a case where the product 12 is moved to the work area while being mounted on the trolley 13, and the worker 11 works on the product 12 mounted on the trolley 13. It is assumed that there is only one worker 11 who works in one work area.

カメラ1は、作業領域で作業を行う作業者11を撮像する。この際、カメラ1は、少なくとも作業者11の目を含む身体の一部(例えば目又は頭部)を撮像することが好ましい。カメラ1は、作業者11が位置すると想定される領域が撮像領域に含まれる位置に配置されている。なお、作業者11が位置すると想定される領域が撮像領域よりも広い場合、カメラ1は撮像位置及び撮像角度のうちの少なくとも一方を可変とする機構を有する必要がある。カメラ1としては、例えば赤外線カメラを用いることができる。このカメラ1により得られた画像データは、演算装置4に出力される。また、カメラ1が撮像位置及び撮像角度のうちの少なくとも一方を可変とする機構を有する場合、カメラ1は、上記画像データに加え、撮像を行った際の撮像位置及び撮像角度のうちの少なくとも一方を示すデータを、演算装置4に出力する。なお、演算装置4は、カメラ1の初期の撮像位置及び撮像角度を示すデータを予め保持している。 The camera 1 takes an image of the worker 11 who works in the work area. At this time, it is preferable that the camera 1 captures at least a part of the body (for example, the eyes or the head) including the eyes of the worker 11. The camera 1 is arranged at a position where the region where the operator 11 is supposed to be located is included in the imaging region. When the area where the worker 11 is supposed to be located is wider than the imaging area, the camera 1 needs to have a mechanism for making at least one of the imaging position and the imaging angle variable. As the camera 1, for example, an infrared camera can be used. The image data obtained by the camera 1 is output to the arithmetic unit 4. Further, when the camera 1 has a mechanism for changing at least one of the imaging position and the imaging angle, the camera 1 adds at least one of the imaging position and the imaging angle at the time of imaging in addition to the above image data. Is output to the arithmetic unit 4. The arithmetic unit 4 holds in advance data indicating the initial imaging position and imaging angle of the camera 1.

カメラ2は、作業領域を撮像する。カメラ2としては、例えば赤外線カメラを用いることができる。このカメラ2により得られた画像データは、演算装置4に出力される。なお、演算装置4は、カメラ2の撮像位置及び撮像角度を示すデータを予め保持している。 The camera 2 captures the work area. As the camera 2, for example, an infrared camera can be used. The image data obtained by the camera 2 is output to the arithmetic unit 4. The arithmetic unit 4 holds in advance data indicating an imaging position and an imaging angle of the camera 2.

プロジェクタ3は、作業領域に入力画像を投影する。なお、作業者11の作業位置が固定である場合にはプロジェクタ3の投影位置及び投影角度は固定でもよいが、作業者11の作業位置が固定ではない場合には、プロジェクタ3は、投影位置及び投影角度のうちの少なくとも一方を可変とする機構を有する。なお、演算装置4は、プロジェクタ3の初期の投影位置及び投影角度を示すデータを予め保持している。 The projector 3 projects an input image onto the work area. When the working position of the worker 11 is fixed, the projection position and the projection angle of the projector 3 may be fixed, but when the working position of the worker 11 is not fixed, the projector 3 has the projection position and the projection angle. It has a mechanism that makes at least one of the projection angles variable. The arithmetic unit 4 holds in advance data indicating the initial projection position and projection angle of the projector 3.

演算装置4は、カメラ1による撮像結果及びカメラ2による撮像結果に基づいて、疑似3次元画像の生成及びプロジェクタ3の制御を行う。疑似3次元画像は、作業指示を表す画像であって、プロジェクタ3により作業領域に投影された画像(投影画像)を人が特定の一方向から見た際に立体視可能な画像である。この演算装置4は、図2に示すように、記録部401、特定部(第1特定部)402、特定部(第2特定部)403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408を有している。 The arithmetic unit 4 generates a pseudo three-dimensional image and controls the projector 3 based on the image pickup result by the camera 1 and the image pickup result by the camera 2. The pseudo three-dimensional image is an image representing a work instruction, and is an image that can be viewed stereoscopically when a person views the image (projected image) projected on the work area by the projector 3 from a specific direction. As shown in FIG. 2, the arithmetic unit 4 includes a recording unit 401, a specific unit (first specific unit) 402, a specific unit (second specific unit) 403, an extraction unit 404, an image generation unit 405, and a control unit 406. It has an output unit 407 and a confirmation instruction unit 408.

記録部401は、作業指示を表すアイコンである3次元データを記録する。この3次元データは、作業工程毎に存在し、作業工程順を示す識別情報に紐付けられて記録部401に記録される。
記録部401としては、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、又はDVD(Digital Versatile Disc)等が該当する。
The recording unit 401 records three-dimensional data, which is an icon representing a work instruction. This three-dimensional data exists for each work process and is recorded in the recording unit 401 in association with the identification information indicating the work process order.
The recording unit 401 includes, for example, a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EPROM (Electrically EPROM), or a magnetic disk. , Flexible discs, optical discs, compact discs, mini discs, DVDs (Digital Versailles Disc), and the like.

なお図1では、記録部401が作業支援システムの内部に設けられた場合を示しているが、これに限らず、記録部401は作業支援システムの外部に設けられていてもよい。 Note that FIG. 1 shows a case where the recording unit 401 is provided inside the work support system, but the present invention is not limited to this, and the recording unit 401 may be provided outside the work support system.

特定部402は、カメラ1による撮像結果から作業者11の位置を特定する。この際、特定部402は、作業者11の位置として、少なくとも作業者11の目を含む身体の一部(例えば目又は頭部)の位置を特定することが好ましい。なお、特定部402は、カメラ1から画像データに加えて撮像位置及び撮像角度のうちの少なくとも一方を示すデータが出力された場合には、当該データも考慮して作業者11の位置を特定する。画像から作業者11の位置を特定する方法としては、従来から知られている各種方法を適用可能であり、その説明を省略する。また、特定部402は、カメラ1による撮像結果から、作業者11の位置に加え、作業者11の向きを特定してもよい。 The identification unit 402 identifies the position of the worker 11 from the image pickup result by the camera 1. At this time, it is preferable that the specific unit 402 specifies the position of at least a part of the body (for example, eyes or head) including the eyes of the worker 11 as the position of the worker 11. When the camera 1 outputs data indicating at least one of the imaging position and the imaging angle in addition to the image data, the specifying unit 402 specifies the position of the operator 11 in consideration of the data. .. As a method of specifying the position of the worker 11 from the image, various conventionally known methods can be applied, and the description thereof will be omitted. Further, the specifying unit 402 may specify the direction of the worker 11 in addition to the position of the worker 11 from the image pickup result by the camera 1.

特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定する。上記物体としては、製品12、台車13又は作業面14等が挙げられる。画像から作業領域に存在する物体の位置及び形状を特定する方法としては、従来から知られている各種方法を適用可能であり、その説明を省略する。なお、特定部403は、カメラ2による撮像結果から、作業領域に存在する物体の位置及び形状に加え、物体の向きを特定してもよい。 The identification unit 403 specifies the position and shape of an object existing in the work area from the image pickup result by the camera 2. Examples of the object include a product 12, a trolley 13, a work surface 14, and the like. As a method of specifying the position and shape of an object existing in the work area from an image, various conventionally known methods can be applied, and the description thereof will be omitted. The identification unit 403 may specify the orientation of the object in addition to the position and shape of the object existing in the work area from the image pickup result by the camera 2.

抽出部404は、記録部401から3次元データを順に抽出する。具体的には、抽出部404は、まず、記録部401から最初の作業工程を示す識別情報に紐付けられた3次元データを抽出する。その後、抽出部404は、確認指示部408から指示を受ける度に、次の作業工程を示す識別情報に紐付けられた3次元データを順に抽出する。 The extraction unit 404 extracts three-dimensional data from the recording unit 401 in order. Specifically, the extraction unit 404 first extracts the three-dimensional data associated with the identification information indicating the first work process from the recording unit 401. After that, each time the extraction unit 404 receives an instruction from the confirmation instruction unit 408, the extraction unit 404 extracts three-dimensional data associated with the identification information indicating the next work process in order.

画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから疑似3次元画像を生成する。この際、画像生成部405は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。なお、画像生成部405では、作業領域に存在する物体と作業箇所との位置関係が既知であるとする。そして、画像生成部405は、抽出部404により抽出された3次元データを変形する。この際、画像生成部405は、設定した投影領域にプロジェクタ3から疑似3次元画像を投影した場合に、特定部402により特定された作業者11の位置から投影画像を見た際に立体視されるように、3次元データを変形する。そして、画像生成部405は、変形した3次元データを2次元の画像に変換することで疑似3次元画像を生成する。 The image generation unit 405 generates a pseudo three-dimensional image from the three-dimensional data extracted by the extraction unit 404 based on the specific result by the specific unit 402 and the specific result by the specific unit 403. At this time, the image generation unit 405 first sets the projection area by the projector 3 from the work area based on the specific result by the specific unit 402 and the specific result by the specific unit 403. It is assumed that the image generation unit 405 knows the positional relationship between the object existing in the work area and the work place. Then, the image generation unit 405 transforms the three-dimensional data extracted by the extraction unit 404. At this time, the image generation unit 405 is stereoscopically viewed when the projected image is viewed from the position of the worker 11 specified by the specific unit 402 when the pseudo three-dimensional image is projected from the projector 3 into the set projection area. As such, the three-dimensional data is transformed. Then, the image generation unit 405 generates a pseudo three-dimensional image by converting the deformed three-dimensional data into a two-dimensional image.

制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。この際、制御部406は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。制御部406で設定される投影領域は、画像生成部405で設定される投影領域と同じである。なお、制御部406では、作業領域に存在する物体と作業箇所との位置関係が既知であるとする。そして、制御部406は、設定した投影領域に投影可能なようにプロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。 The control unit 406 controls at least one of the projection position and the projection angle of the projector 3 based on the specific result by the specific unit 402 and the specific result by the specific unit 403. At this time, the control unit 406 first sets the projection area by the projector 3 from the work area based on the specific result by the specific unit 402 and the specific result by the specific unit 403. The projection area set by the control unit 406 is the same as the projection area set by the image generation unit 405. It is assumed that the control unit 406 knows the positional relationship between the object existing in the work area and the work place. Then, the control unit 406 controls at least one of the projection position and the projection angle of the projector 3 so that the projection can be performed on the set projection area.

なお、プロジェクタ3の投影位置及び投影角度が固定である場合には、制御部406は不要である。 When the projection position and the projection angle of the projector 3 are fixed, the control unit 406 is unnecessary.

出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。 The output unit 407 outputs data indicating a pseudo three-dimensional image generated by the image generation unit 405 to the projector 3.

確認指示部408は、作業者11による作業完了を確認して抽出部404に対して次の3次元データの抽出を指示する。ここで、例えば、確認指示部408は、ユーザにより入力装置(不図示)を介して入力された作業完了通知を受付けることで、作業者11による作業完了の確認を行ってもよい。また、確認指示部408は、カメラ2による撮像結果を解析することで、作業者11による作業完了の確認を行ってもよい。
なお、演算装置4は、抽出部404により最後の作業工程を表す3次元データが抽出されている場合には、確認指示部408により作業者11による作業完了が確認された時点で処理を終了する。
The confirmation instruction unit 408 confirms the completion of the work by the operator 11 and instructs the extraction unit 404 to extract the next three-dimensional data. Here, for example, the confirmation instruction unit 408 may confirm the work completion by the worker 11 by receiving the work completion notification input by the user via the input device (not shown). Further, the confirmation instruction unit 408 may confirm the completion of the work by the operator 11 by analyzing the image pickup result by the camera 2.
When the three-dimensional data representing the last work process is extracted by the extraction unit 404, the arithmetic unit 4 ends the process when the confirmation instruction unit 408 confirms the completion of the work by the worker 11. ..

次に、図1,2に示す演算装置4の動作例について、図3を参照しながら説明する。なお、記録部401には、作業工程毎の3次元データが記録されている。また、カメラ1及びカメラ2はそれぞれ、撮像を常時行い、得られた画像データを演算装置4に出力している。
演算装置4の動作例では、図3に示すように、まず、特定部402は、カメラ1による撮像結果から作業者11の位置を特定する(ステップST301)。ここでは、特定部402は、作業者11の位置として、少なくとも作業者11の目を含む身体の一部の位置を特定するものとする。なお、特定部402による処理は、カメラ1から演算装置4に画像データが入力される度に実施される。
Next, an operation example of the arithmetic unit 4 shown in FIGS. 1 and 2 will be described with reference to FIG. The recording unit 401 records three-dimensional data for each work process. Further, each of the camera 1 and the camera 2 constantly performs imaging, and outputs the obtained image data to the arithmetic unit 4.
In the operation example of the arithmetic unit 4, as shown in FIG. 3, first, the identification unit 402 specifies the position of the worker 11 from the image pickup result by the camera 1 (step ST301). Here, the identification unit 402 specifies the position of at least a part of the body including the eyes of the worker 11 as the position of the worker 11. The process by the specific unit 402 is performed every time the image data is input from the camera 1 to the arithmetic unit 4.

また、特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定する(ステップST302)。 Further, the identification unit 403 specifies the position and shape of the object existing in the work area from the image pickup result by the camera 2 (step ST302).

また、抽出部404は、記録部401から3次元データを抽出する(ステップST303)。この際、抽出部404は、記録部401から、最初の作業工程を示す識別情報に紐付けられた3次元データを抽出する。 Further, the extraction unit 404 extracts three-dimensional data from the recording unit 401 (step ST303). At this time, the extraction unit 404 extracts the three-dimensional data associated with the identification information indicating the first work process from the recording unit 401.

また、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから疑似3次元画像を生成する(ステップST304)。この際、画像生成部405は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。そして、画像生成部405は、抽出部404により抽出された3次元データを変形する。この際、画像生成部405は、設定した投影領域にプロジェクタ3から疑似3次元画像を投影した場合に、特定部402により特定された作業者11の位置から投影画像を見た際に立体視されるように、3次元データを変形する。そして、画像生成部405は、変形した3次元データを2次元の画像に変換することで疑似3次元画像を生成する。なお、画像生成部405による処理は、特定部402により特定された作業者11の位置が変わる度に実施される。 Further, the image generation unit 405 generates a pseudo three-dimensional image from the three-dimensional data extracted by the extraction unit 404 based on the specific result by the specific unit 402 and the specific result by the specific unit 403 (step ST304). At this time, the image generation unit 405 first sets the projection area by the projector 3 from the work area based on the specific result by the specific unit 402 and the specific result by the specific unit 403. Then, the image generation unit 405 transforms the three-dimensional data extracted by the extraction unit 404. At this time, the image generation unit 405 is stereoscopically viewed when the projected image is viewed from the position of the worker 11 specified by the specific unit 402 when the pseudo three-dimensional image is projected from the projector 3 into the set projection area. As such, the three-dimensional data is transformed. Then, the image generation unit 405 generates a pseudo three-dimensional image by converting the deformed three-dimensional data into a two-dimensional image. The process by the image generation unit 405 is performed every time the position of the worker 11 specified by the specific unit 402 changes.

次いで、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する(ステップST305)。この際、制御部406は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。制御部406で設定される投影領域は、画像生成部405で設定される投影領域と同じである。そして、制御部406は、設定した投影領域に投影可能なようにプロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。これにより、プロジェクタ3の投影位置及び投影角度が設定される。なお、制御部406による処理は、特定部402により特定された作業者11の位置が変わる度に実施される。 Next, the control unit 406 controls at least one of the projection position and the projection angle of the projector 3 based on the specific result by the specific unit 402 and the specific result by the specific unit 403 (step ST305). At this time, the control unit 406 first sets the projection area by the projector 3 from the work area based on the specific result by the specific unit 402 and the specific result by the specific unit 403. The projection area set by the control unit 406 is the same as the projection area set by the image generation unit 405. Then, the control unit 406 controls at least one of the projection position and the projection angle of the projector 3 so that the projection can be performed on the set projection area. As a result, the projection position and the projection angle of the projector 3 are set. The process by the control unit 406 is performed every time the position of the worker 11 specified by the specific unit 402 changes.

次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する(ステップST306)。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、作業者11には投影画像が立体的に見える。その後、作業者11は、この投影画像が示す作業指示に従って製品12に対する作業を行う。 Next, the output unit 407 outputs data indicating the pseudo three-dimensional image generated by the image generation unit 405 to the projector 3 (step ST306). After that, the projector 3 projects this pseudo three-dimensional image onto the work area. As a result, the projected image appears three-dimensionally to the operator 11. After that, the worker 11 performs the work on the product 12 according to the work instruction indicated by the projected image.

次いで、確認指示部408は、作業者11による作業完了を確認したかを判定する(ステップST307)。このステップST307において、確認指示部408が作業完了を確認していない場合には、シーケンスはステップST307に戻り待機状態となる。 Next, the confirmation instruction unit 408 determines whether or not the work completion by the worker 11 has been confirmed (step ST307). If the confirmation instruction unit 408 has not confirmed the completion of the work in step ST307, the sequence returns to step ST307 and enters the standby state.

一方、ステップST307において、確認指示部408は、作業完了を確認した場合、抽出部404により最後の作業工程を表す3次元データまで抽出されたかを判定する(ステップST308)。 On the other hand, in step ST307, when the confirmation instruction unit 408 confirms the completion of the work, it determines whether the extraction unit 404 has extracted up to the three-dimensional data representing the last work process (step ST308).

このステップST308において、確認指示部408は、抽出部404により未抽出の3次元データがあると判定した場合には、抽出部404に対して次の3次元データの抽出を指示する(ステップST309)。その後、シーケンスはステップST302に戻る。なお、ステップST303では、抽出部404は、確認指示部408による指示に応じ、次の作業工程を示す識別情報に紐付けられた3次元データの抽出を行う。 In step ST308, when the extraction unit 404 determines that there is unextracted three-dimensional data, the confirmation instruction unit 408 instructs the extraction unit 404 to extract the next three-dimensional data (step ST309). .. After that, the sequence returns to step ST302. In step ST303, the extraction unit 404 extracts the three-dimensional data associated with the identification information indicating the next work process in response to the instruction from the confirmation instruction unit 408.

一方、ステップST308において、確認指示部408が抽出部404により全ての3次元データが抽出されたと判定した場合には、シーケンスは終了する。 On the other hand, in step ST308, when the confirmation instruction unit 408 determines that all the three-dimensional data has been extracted by the extraction unit 404, the sequence ends.

次に、実施の形態1に係る作業支援システムによる作業指示の具体例について示す。
図4〜7では、作業者11が、第1の作業として作業領域における指定箇所に指定の向きで箱16を置き、第2の作業として箱16の上面四隅に対してネジ締めを行う場合を示す。以下では、図4Aに示すように、作業領域に置かれた作業面14上で作業者11が作業を行う場合を示し、箱16の位置決めのため作業面14上に製品12の一部である板金部品15が置かれているものとする。
Next, a specific example of the work instruction by the work support system according to the first embodiment will be shown.
In FIGS. 4 to 7, when the worker 11 places the box 16 in a designated place in the work area in a designated direction as the first work and tightens the four corners of the upper surface of the box 16 as the second work. show. In the following, as shown in FIG. 4A, a case where the worker 11 works on the work surface 14 placed in the work area is shown, and the product 12 is a part of the product 12 on the work surface 14 for positioning the box 16. It is assumed that the sheet metal part 15 is placed.

この場合、まず、作業支援システムは第1の作業を支援する。
具体的には、まず、特定部402は、カメラ1による撮像結果から少なくとも作業者11の目を含む身体の一部の位置を特定する。また、特定部403は、カメラ2による撮像結果から板金部品15の位置及び形状を特定する。なお図4Bでは、符号101に示すように、画像生成部405及び制御部406が、作業領域から、板金部品15の一部が位置する領域(板金部品15が有する二つの面)をプロジェクタ3による投影領域に設定している。また、抽出部404は、図5Aに示すように、記録部401から、作業領域における指定箇所に指定の向きで箱16を置くことを表す3次元データを抽出する。図5Aに示す3次元データは、箱16を表す3次元モデルと、箱16を置くことを表す下向き矢印の3次元モデルとから構成されている。次いで、画像生成部405は、図5Bに示すように、特定部402による特定結果及び特定部403による特定結果に基づいて、図5Aに示す3次元データを変形して、疑似3次元画像を生成する。また、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、図6Aに符号102で示すように、作業者11には、投影画像が、作業領域における指定箇所に指定の向きで箱16を置く作業を表すように立体的に見える。なお、例えば図6Bに示すように、作業者11以外の第三者が、投影画像を作業者11とは別の方向から見た場合には、投影画像が立体的には見えない。その後、作業者11は、この投影画像が示す作業指示に従って作業領域における指定箇所に指定の向きで箱16を置く。
In this case, first, the work support system supports the first work.
Specifically, first, the identification unit 402 identifies the position of at least a part of the body including the eyes of the worker 11 from the image pickup result by the camera 1. Further, the identification unit 403 specifies the position and shape of the sheet metal component 15 from the image pickup result by the camera 2. In FIG. 4B, as shown by reference numeral 101, the image generation unit 405 and the control unit 406 use the projector 3 to set a region (two surfaces of the sheet metal component 15) where a part of the sheet metal component 15 is located from the work area. It is set in the projection area. Further, as shown in FIG. 5A, the extraction unit 404 extracts three-dimensional data indicating that the box 16 is placed in a designated place in the work area in a designated direction from the recording unit 401. The three-dimensional data shown in FIG. 5A is composed of a three-dimensional model representing the box 16 and a three-dimensional model with a downward arrow indicating that the box 16 is placed. Next, as shown in FIG. 5B, the image generation unit 405 transforms the three-dimensional data shown in FIG. 5A based on the specific result by the specific unit 402 and the specific result by the specific unit 403 to generate a pseudo three-dimensional image. do. Further, the control unit 406 controls at least one of the projection position and the projection angle of the projector 3 based on the specific result by the specific unit 402 and the specific result by the specific unit 403. Next, the output unit 407 outputs data indicating a pseudo three-dimensional image generated by the image generation unit 405 to the projector 3. After that, the projector 3 projects this pseudo three-dimensional image onto the work area. As a result, as shown by reference numeral 102 in FIG. 6A, the projected image appears three-dimensionally to the worker 11 so as to represent the work of placing the box 16 in the designated place in the work area in the designated direction. For example, as shown in FIG. 6B, when a third party other than the worker 11 views the projected image from a direction different from that of the worker 11, the projected image cannot be seen three-dimensionally. After that, the worker 11 places the box 16 in the designated direction in the designated place in the work area according to the work instruction indicated by the projected image.

次いで、確認指示部408が作業者11による第1の作業の完了を確認すると、作業支援システムは第2の作業を支援する。
具体的には、まず、特定部402は、カメラ1による撮像結果から少なくとも作業者11の目を含む身体の一部の位置を特定する。また、特定部403は、カメラ2による撮像結果から板金部品15の位置及び形状を特定する。なお、画像生成部405及び制御部406は、作業領域から、板金部品15の一部が位置する領域(板金部品15が有する二つの面の一部)及び箱16の上面が位置する領域をプロジェクタ3による投影領域に設定する。また、抽出部404は、記録部401から、箱16の上面四隅に対してネジ締めを行うことを表す3次元データを抽出する。次いで、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、3次元データを変形して、疑似3次元画像を生成する。また、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、図7に符号103で示すように、作業者11には、投影画像が、箱16の上面四隅に対してネジ締めを行う作業を表すように立体的に見える。その後、作業者11は、この投影画像が示す作業指示に従って箱16の上面四隅に対してネジ締めを行う。
Next, when the confirmation instruction unit 408 confirms the completion of the first work by the worker 11, the work support system supports the second work.
Specifically, first, the identification unit 402 identifies the position of at least a part of the body including the eyes of the worker 11 from the image pickup result by the camera 1. Further, the identification unit 403 specifies the position and shape of the sheet metal component 15 from the image pickup result by the camera 2. The image generation unit 405 and the control unit 406 project from the work area the area where a part of the sheet metal component 15 is located (a part of the two surfaces of the sheet metal component 15) and the area where the upper surface of the box 16 is located. Set to the projection area according to 3. Further, the extraction unit 404 extracts three-dimensional data indicating that the four corners of the upper surface of the box 16 are screwed from the recording unit 401. Next, the image generation unit 405 transforms the three-dimensional data based on the specific result by the specific unit 402 and the specific result by the specific unit 403 to generate a pseudo three-dimensional image. Further, the control unit 406 controls at least one of the projection position and the projection angle of the projector 3 based on the specific result by the specific unit 402 and the specific result by the specific unit 403. Next, the output unit 407 outputs data indicating a pseudo three-dimensional image generated by the image generation unit 405 to the projector 3. After that, the projector 3 projects this pseudo three-dimensional image onto the work area. As a result, as shown by reference numeral 103 in FIG. 7, the projected image appears three-dimensionally to the operator 11 as representing the work of screwing the four corners of the upper surface of the box 16. After that, the worker 11 tightens the screws on the four corners of the upper surface of the box 16 according to the work instructions indicated by the projected image.

次いで、確認指示部408が作業者11による第2の作業の完了を確認すると、作業支援システムは支援を終了する。 Next, when the confirmation instruction unit 408 confirms the completion of the second work by the worker 11, the work support system ends the support.

なお上記では、画像生成部405及び制御部406が投影領域を板金部品15が位置する領域内とする場合を示した。一方、作業内容によっては部品等のサイズが大きく、投影領域が板金部品15が位置する領域をはみ出る場合も考えられる。例えば、ある製品12に対してコンプレッサ等の大型の製品を置く場合には、投影領域が大きくなる。このような場合、画像生成部405及び制御部406は、投影領域を、板金部品15が位置する領域に加え、背景の領域も含めて設定する。 In the above, the case where the image generation unit 405 and the control unit 406 set the projection area within the area where the sheet metal component 15 is located is shown. On the other hand, depending on the work content, the size of the component or the like may be large, and the projection area may extend beyond the area where the sheet metal component 15 is located. For example, when a large product such as a compressor is placed on a certain product 12, the projection area becomes large. In such a case, the image generation unit 405 and the control unit 406 set the projection region including the background region in addition to the region where the sheet metal component 15 is located.

また、作業者11が作業箇所の死角に位置している場合、作業支援システムは当該作業箇所を通知するための画像を投影してもよい。作業者11が作業箇所の死角に位置する場合とは、例えば図6Aでは、作業者11が板金部品15の背面に位置している場合等である。
具体的には、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて作業者11が作業箇所の死角に位置していると判定した場合に、作業箇所を通知するための画像を生成する。例えば、画像生成部405は、作業者11が板金部品15の背面に位置していると判定した場合に、作業箇所が板金部品15の前面であることを通知するための画像を生成する。そして、プロジェクタ3は、画像生成部405により生成された上記画像を所定の投影領域に投影する。上記の例では、プロジェクタ3は、上記画像を板金部品15の背面等に投影する。
Further, when the worker 11 is located in the blind spot of the work place, the work support system may project an image for notifying the work place. The case where the worker 11 is located in the blind spot of the work place is, for example, in FIG. 6A, the case where the worker 11 is located on the back surface of the sheet metal part 15.
Specifically, the image generation unit 405 notifies the work location when it is determined that the worker 11 is located in the blind spot of the work location based on the specific result by the specific unit 402 and the specific result by the specific unit 403. Generate an image to do. For example, when the worker 11 determines that the worker 11 is located on the back surface of the sheet metal component 15, the image generation unit 405 generates an image for notifying that the work location is the front surface of the sheet metal component 15. Then, the projector 3 projects the image generated by the image generation unit 405 onto a predetermined projection area. In the above example, the projector 3 projects the image onto the back surface of the sheet metal component 15.

このように、実施の形態1に係る作業支援システムでは、作業者11の位置並びに作業領域に存在する物体の位置及び形状に基づいて疑似3次元画像の生成及びプロジェクタ3の制御を行い、プロジェクタ3から当該疑似3次元画像を投影する。これにより、作業者11には投影画像が立体的に見え、作業者11は、作業指示を視覚的に認識可能となり、疑似3次元画像が示す作業指示の通りに作業を行うことで容易に作業を実施できる。また、疑似3次元画像は作業領域に投影されるため、作業者11は作業指示を確認する際に製品12から目を離す必要はなく、作業時間(タクトタイム)の短縮化が見込める。また、疑似3次元画像では文字を用いていないため、作業者11は、言語の違いに依らず、容易に作業を実施できる。 As described above, in the work support system according to the first embodiment, the pseudo three-dimensional image is generated and the projector 3 is controlled based on the position of the worker 11 and the position and shape of the object existing in the work area, and the projector 3 is controlled. The pseudo three-dimensional image is projected from. As a result, the projected image can be seen three-dimensionally by the worker 11, the work instruction can be visually recognized by the worker 11, and the work can be easily performed by performing the work according to the work instruction indicated by the pseudo three-dimensional image. Can be carried out. Further, since the pseudo three-dimensional image is projected on the work area, the worker 11 does not have to take his eyes off the product 12 when confirming the work instruction, and the work time (tact time) can be expected to be shortened. Further, since characters are not used in the pseudo three-dimensional image, the worker 11 can easily perform the work regardless of the difference in language.

また、疑似3次元画像は作業者11が裸眼で立体視可能であり、作業者11はHMD等のような特別な装置を装着する必要はない。また、疑似3次元画像は単一画像であり、作業支援システムは両眼視差を利用した3次元画像のように複数の画像を用意する必要はない。 Further, the pseudo three-dimensional image can be viewed stereoscopically by the worker 11 with the naked eye, and the worker 11 does not need to wear a special device such as an HMD. Further, the pseudo three-dimensional image is a single image, and the work support system does not need to prepare a plurality of images as in the case of a three-dimensional image using binocular disparity.

また、特定部402は、カメラ1による撮像結果からリアルタイムに作業者11の位置を特定可能である。そのため、作業支援システムでは、作業の途中で作業者11が移動した場合でも追従して疑似3次元画像を生成可能であり、作業者11は投影画像を常に立体視できる。 Further, the identification unit 402 can specify the position of the worker 11 in real time from the image pickup result by the camera 1. Therefore, in the work support system, even if the worker 11 moves in the middle of the work, it is possible to generate a pseudo three-dimensional image by following the movement, and the worker 11 can always view the projected image in stereoscopic view.

なお上記では、特定部403がカメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定し、画像生成部405及び制御部406が当該物体の位置及び形状に基づいて処理を行う場合を示した。しかしながら、これに限らず、記録部401が、事前に、作業領域に存在すると想定される物体の形状を示す情報を記録し、特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置のみを特定してもよい。この場合、画像生成部405及び制御部406は、作業領域に存在する物体の形状については記録部401から得る。 In the above, when the specific unit 403 specifies the position and shape of an object existing in the work area from the image pickup result by the camera 2, and the image generation unit 405 and the control unit 406 perform processing based on the position and shape of the object. showed that. However, not limited to this, the recording unit 401 records information indicating the shape of the object that is assumed to exist in the work area in advance, and the specific unit 403 records the object existing in the work area from the image pickup result by the camera 2. Only the position of may be specified. In this case, the image generation unit 405 and the control unit 406 obtain the shape of the object existing in the work area from the recording unit 401.

以上のように、この実施の形態1によれば、作業領域で作業を行う作業者11を撮像するカメラ1と、作業領域を撮像するカメラ2と、作業領域に入力画像を投影するプロジェクタ3と、カメラ1による撮像結果から作業者11の位置を特定する特定部402と、カメラ2による撮像結果から作業領域に存在する物体の位置を特定する特定部403と、作業指示を表すアイコンである3次元データを順に抽出する抽出部404と、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部405と、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する出力部407と、作業者11による作業完了を確認して抽出部404に対して次の3次元データの抽出を指示する確認指示部408とを備えた。これにより、実施の形態1に係る作業支援システムは、作業者11が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となる。 As described above, according to the first embodiment, the camera 1 that captures the worker 11 working in the work area, the camera 2 that captures the work area, and the projector 3 that projects the input image onto the work area. A specific unit 402 that identifies the position of the worker 11 from the image capture result of the camera 1, a specific unit 403 that identifies the position of an object existing in the work area from the image image result of the camera 2, and an icon representing a work instruction. When the projected image is viewed from one direction from the three-dimensional data extracted by the extraction unit 404 based on the extraction unit 404 that extracts the dimensional data in order, the specific result by the specific unit 402, and the specific result by the specific unit 403. An image generation unit 405 that generates a pseudo-three-dimensional image that can be viewed stereoscopically, an output unit 407 that outputs data indicating a pseudo-three-dimensional image generated by the image generation unit 405 to the projector 3, and a worker 11 complete the work. It is provided with a confirmation instruction unit 408 that confirms and instructs the extraction unit 404 to extract the next three-dimensional data. As a result, in the work support system according to the first embodiment, it is possible to give a work instruction without characters while the worker 11 is looking at the work area without wearing a special device.

実施の形態2.
実施の形態1では、画像生成部405が静止画である疑似3次元画像を生成し、プロジェクタ3が当該疑似3次元画像を作業領域に投影する場合を示した。これに対し、画像生成部405は複数の疑似3次元画像を連続したアニメーションを生成し、プロジェクタ3はこのアニメーションを作業領域に投影してもよい。これにより、作業者11は、作業指示の内容をより容易に理解可能となる。
Embodiment 2.
In the first embodiment, the case where the image generation unit 405 generates a pseudo three-dimensional image which is a still image and the projector 3 projects the pseudo three-dimensional image on the work area is shown. On the other hand, the image generation unit 405 may generate a continuous animation of a plurality of pseudo three-dimensional images, and the projector 3 may project this animation on the work area. As a result, the worker 11 can more easily understand the contents of the work instruction.

実施の形態3.
実施の形態1,2では、画像生成部405及び制御部406が投影領域をどのような領域に設定するのかについては具体的に言及していない。一方、投影領域が平面ではなく複数の面を有する場合、演算装置4は、3次元データに対し、それぞれの面に投影される領域毎に演算を行って、疑似3次元画像を生成する必要がある。そのため、投影領域は可能な限り凹凸の少ない領域であることが望ましい。
Embodiment 3.
In the first and second embodiments, the image generation unit 405 and the control unit 406 do not specifically mention what kind of region the projection region is set to. On the other hand, when the projection area has a plurality of surfaces instead of a plane, the arithmetic unit 4 needs to perform an operation on the three-dimensional data for each area projected on each surface to generate a pseudo three-dimensional image. be. Therefore, it is desirable that the projection region is a region with as few irregularities as possible.

そこで、画像生成部405は、特定部403による特定結果から凹凸の少ない領域を検出し、当該領域をプロジェクタ3による投影領域に設定して、疑似3次元画像の生成を行ってもよい。同様に、制御部406は、特定部403による特定結果から凹凸の少ない領域を検出し、当該領域をプロジェクタ3による投影領域に設定して、プロジェクタ3の制御を行ってもよい。これにより、演算装置4は、疑似3次元画像を生成する際の演算負荷を低減可能となる。 Therefore, the image generation unit 405 may detect a region having less unevenness from the specific result by the specific unit 403, set the region as the projection region by the projector 3, and generate a pseudo three-dimensional image. Similarly, the control unit 406 may detect a region having less unevenness from the specific result by the specific unit 403, set the region as the projection region by the projector 3, and control the projector 3. As a result, the arithmetic unit 4 can reduce the arithmetic load when generating a pseudo three-dimensional image.

最後に、図8を参照して、実施の形態1〜3における演算装置4のハードウェア構成例を説明する。
演算装置4における特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各機能は、処理回路51により実現される。処理回路51は、図8Aに示すように、専用のハードウェアであってもよいし、図8Bに示すように、メモリ53に格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、又はDSP(Digital Signal Processor)ともいう)52であってもよい。
Finally, with reference to FIG. 8, a hardware configuration example of the arithmetic unit 4 according to the first to third embodiments will be described.
Each function of the specific unit 402, the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408 in the arithmetic unit 4 is realized by the processing circuit 51. As shown in FIG. 8A, the processing circuit 51 may be dedicated hardware, or as shown in FIG. 8B, a CPU (Central Processing Unit, central processing unit,) that executes a program stored in the memory 53. It may be a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP (also referred to as a Digital Signal Processor) 52.

処理回路51が専用のハードウェアである場合、処理回路51は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各部の機能それぞれを処理回路51で実現してもよいし、各部の機能をまとめて処理回路51で実現してもよい。 When the processing circuit 51 is dedicated hardware, the processing circuit 51 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate). Array) or a combination of these is applicable. The functions of the specific unit 402, the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408 may be realized by the processing circuit 51, or the functions of each unit may be realized. It may be realized collectively by the processing circuit 51.

処理回路51がCPU52の場合、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ53に格納される。処理回路51は、メモリ53に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、演算装置4は、処理回路51により実行されるときに、例えば図3に示した各ステップが結果的に実行されることになるプログラムを格納するためのメモリ53を備える。また、これらのプログラムは、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の手順及び方法をコンピュータに実行させるものであるともいえる。ここで、メモリ53としては、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、又はDVD等が該当する。 When the processing circuit 51 is the CPU 52, the functions of the specific unit 402, the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408 are software, firmware, or software and firmware. It is realized by the combination of. The software and firmware are described as a program and stored in the memory 53. The processing circuit 51 realizes the functions of each part by reading and executing the program stored in the memory 53. That is, the arithmetic unit 4 includes a memory 53 for storing a program in which, for example, each step shown in FIG. 3 is eventually executed when executed by the processing circuit 51. Further, it can be said that these programs cause the computer to execute the procedures and methods of the specific unit 402, the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408. .. Here, examples of the memory 53 include non-volatile or volatile semiconductor memories such as RAM, ROM, flash memory, EPROM, and EEPROM, magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs, and the like. do.

なお、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、特定部402については専用のハードウェアとしての処理回路51でその機能を実現し、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408については処理回路51がメモリ53に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 For each function of the specific unit 402, the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408, some of them are realized by dedicated hardware, and some of them are realized. It may be realized by software or firmware. For example, the specific unit 402 is realized by the processing circuit 51 as dedicated hardware, and the specific unit 403, the extraction unit 404, the image generation unit 405, the control unit 406, the output unit 407, and the confirmation instruction unit 408 are realized. The function can be realized by the processing circuit 51 reading and executing the program stored in the memory 53.

このように、処理回路51は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing circuit 51 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組合わせ、或いは各実施の形態の任意の構成要素の変形、若しくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. be.

この発明に係る作業支援システムは、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となり、作業指示を行う作業支援システム等に用いるのに適している。 The work support system according to the present invention can be used for a work support system or the like that enables work instructions without characters while the worker is looking at the work area without wearing a special device. Suitable for.

1 カメラ(第1撮像装置)、2 カメラ(第2撮像装置)、3 プロジェクタ(投影装置)、4 演算装置、11 作業者、12 製品、13 台車、14 作業面、15 板金部品、16 箱、51 処理回路、52 CPU、53 メモリ、401 記録部、402 特定部(第1特定部)、403 特定部(第2特定部)、404 抽出部、405 画像生成部、406 制御部、407 出力部、408 確認指示部。 1 camera (1st image pickup device), 2 camera (2nd image pickup device), 3 projector (projection device), 4 arithmetic unit, 11 workers, 12 products, 13 trolleys, 14 work surfaces, 15 sheet metal parts, 16 boxes, 51 processing circuit, 52 CPU, 53 memory, 401 recording unit, 402 specific unit (first specific unit), 403 specific unit (second specific unit), 404 extraction unit, 405 image generation unit, 406 control unit, 407 output unit , 408 Confirmation indicator.

Claims (9)

作業領域で作業を行う作業者を撮像する第1撮像装置と、
作業領域を撮像する第2撮像装置と、
作業領域に入力画像を投影する投影装置と、
前記第1撮像装置による撮像結果から作業者の位置を特定する第1特定部と、
前記第2撮像装置による撮像結果から作業領域に存在する物体の位置を特定する第2特定部と、
作業指示を表すアイコンである3次元データを順に抽出する抽出部と、
前記第1特定部による特定結果及び前記第2特定部による特定結果に基づいて、前記抽出部により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部と、
前記画像生成部により生成された疑似3次元画像を示すデータを前記投影装置に出力する出力部と、
作業者による作業完了を確認して前記抽出部に対して次の3次元データの抽出を指示する確認指示部と
を備えた作業支援システム。
A first imaging device that captures images of workers working in the work area,
A second imaging device that captures the work area,
A projection device that projects the input image onto the work area,
The first specific unit that identifies the position of the worker from the image pickup result by the first image pickup device, and
A second specific unit that identifies the position of an object existing in the work area from the image pickup result by the second image pickup device, and
An extraction unit that extracts 3D data, which is an icon representing work instructions, in order,
Pseudo-three-dimensional image that can be viewed stereoscopically when the projected image is viewed from one direction from the three-dimensional data extracted by the extraction unit based on the specific result by the first specific unit and the specific result by the second specific unit. An image generator that generates an image and
An output unit that outputs data indicating a pseudo three-dimensional image generated by the image generation unit to the projection device, and an output unit.
A work support system including a confirmation instruction unit that confirms the completion of work by an operator and instructs the extraction unit to extract the next three-dimensional data.
前記画像生成部は、前記第1特定部により特定された作業者の位置が変わる度に、疑似3次元画像の生成を行う
ことを特徴とする請求項1記載の作業支援システム。
The work support system according to claim 1, wherein the image generation unit generates a pseudo three-dimensional image each time the position of the worker specified by the first specific unit changes.
前記第1特定部は、作業者の位置として、少なくとも作業者の目を含む身体の一部の位置を特定する
ことを特徴とする請求項1記載の作業支援システム。
The work support system according to claim 1, wherein the first specific unit specifies at least the position of a part of the body including the eyes of the worker as the position of the worker.
前記画像生成部は、複数の疑似3次元画像を連続したアニメーションを生成する
ことを特徴とする請求項1記載の作業支援システム。
The work support system according to claim 1, wherein the image generation unit generates a continuous animation of a plurality of pseudo three-dimensional images.
前記画像生成部は、前記第2特定部による特定結果から凹凸の少ない領域を検出し、当該領域を前記投影装置による投影領域に設定して、疑似3次元画像の生成を行う
ことを特徴とする請求項1記載の作業支援システム。
The image generation unit is characterized in that a region having less unevenness is detected from the specific result by the second specific unit, the region is set as a projection region by the projection device, and a pseudo three-dimensional image is generated. The work support system according to claim 1.
前記第1撮像装置は、作業者が位置すると想定される領域が撮像領域に含まれるように撮像位置及び撮像角度のうちの少なくとも一方が可変に構成された
ことを特徴とする請求項1記載の作業支援システム。
The first imaging device according to claim 1, wherein at least one of the imaging position and the imaging angle is variably configured so that the region where the operator is supposed to be located is included in the imaging region. Work support system.
前記投影装置は、投影位置及び投影角度のうちの少なくとも一方が可変であり、
前記第1特定部による特定結果及び前記第2特定部による特定結果に基づいて、前記投影装置の投影位置及び投影角度のうちの少なくとも一方を制御する制御部を備えた
ことを特徴とする請求項1記載の作業支援システム。
In the projection device, at least one of the projection position and the projection angle is variable.
The claim is characterized in that it includes a control unit that controls at least one of the projection position and the projection angle of the projection device based on the specific result by the first specific unit and the specific result by the second specific unit. The work support system described in 1.
前記制御部は、前記第1特定部により特定された作業者の位置が変わる度に、前記投影装置の投影位置及び投影角度のうちの少なくとも一方の制御を行う
ことを特徴とする請求項7記載の作業支援システム。
The seventh aspect of claim 7, wherein the control unit controls at least one of the projection position and the projection angle of the projection device each time the position of the worker specified by the first specific unit changes. Work support system.
前記制御部は、前記第2特定部による特定結果から凹凸の少ない領域を検出し、当該領域を前記投影装置による投影領域に設定して、当該投影装置の制御を行う
ことを特徴とする請求項7記載の作業支援システム。
The claim is characterized in that the control unit detects a region having less unevenness from a specific result by the second specific unit, sets the region as a projection region by the projection device, and controls the projection device. The work support system described in 7.
JP2020568910A 2019-01-29 2019-01-29 Work support system Active JP7034340B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/002893 WO2020157821A1 (en) 2019-01-29 2019-01-29 Work assisting system

Publications (2)

Publication Number Publication Date
JPWO2020157821A1 true JPWO2020157821A1 (en) 2021-09-30
JP7034340B2 JP7034340B2 (en) 2022-03-11

Family

ID=71842399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568910A Active JP7034340B2 (en) 2019-01-29 2019-01-29 Work support system

Country Status (2)

Country Link
JP (1) JP7034340B2 (en)
WO (1) WO2020157821A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299851A (en) * 1999-02-12 2000-10-24 Sanyo Electric Co Ltd Instruction information transmitter
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work
JP2005322055A (en) * 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> Information presentation device for work assistance, information presentation method for work assistance, program for presenting work assistance information
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
WO2012042974A1 (en) * 2010-09-30 2012-04-05 富士フイルム株式会社 Information presentation device, digital camera, head mount display, projector, information presentation method, and information presentation program
WO2016084151A1 (en) * 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 Operation support system, operation support device and operation support method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299851A (en) * 1999-02-12 2000-10-24 Sanyo Electric Co Ltd Instruction information transmitter
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work
JP2005322055A (en) * 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> Information presentation device for work assistance, information presentation method for work assistance, program for presenting work assistance information
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
WO2012042974A1 (en) * 2010-09-30 2012-04-05 富士フイルム株式会社 Information presentation device, digital camera, head mount display, projector, information presentation method, and information presentation program
WO2016084151A1 (en) * 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 Operation support system, operation support device and operation support method

Also Published As

Publication number Publication date
WO2020157821A1 (en) 2020-08-06
JP7034340B2 (en) 2022-03-11

Similar Documents

Publication Publication Date Title
US10076840B2 (en) Information processing apparatus, information processing method, and program
JP6171671B2 (en) Information processing apparatus, position specifying method, and position specifying program
US8744216B2 (en) Omnidirectional image processing device and method using warp processing for enhanced object visibility
CN102959616B (en) Interactive reality augmentation for natural interaction
JP6434476B2 (en) Augmented reality simulation apparatus and augmented reality simulation program
US20150160725A1 (en) Method of acquiring gaze information irrespective of whether user wears vision aid and moves
US9946146B2 (en) Control apparatus configured to control projection of an image based on position information, projection information, and shape information, corresponding control method and corresponding storage medium
CN104574267A (en) Guiding method and information processing apparatus
JP6160290B2 (en) Information processing apparatus, determination method, and determination program
US20120026376A1 (en) Anamorphic projection device
US10614149B2 (en) Coordinate information conversion device and computer readable medium
CN103577803A (en) Use of color and intensity modulation of pixel display
JP6750622B2 (en) Irradiation system, irradiation method and irradiation program
JP7052203B2 (en) Safety control devices, safety control methods and programs
JP2015125641A (en) Information processing device, control method therefor, and program
JP7453137B2 (en) POS terminal device and image processing method
KR20200003719A (en) Image processing apparatus, image processing method, and storage medium
JP6538760B2 (en) Mixed reality simulation apparatus and mixed reality simulation program
JP7034340B2 (en) Work support system
KR102082277B1 (en) Method for generating panoramic image and apparatus thereof
CN104199556A (en) Information processing method and device
WO2020217348A1 (en) Image projection system
KR20190068880A (en) Hmd device capable of displaying a vr-based presentation document and operating method thereof
JP2012216883A (en) Display controller, display control method, and program
KR101237975B1 (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R150 Certificate of patent or registration of utility model

Ref document number: 7034340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150