JP6987537B2 - Image processing equipment, imaging equipment, work support systems, control methods and programs - Google Patents

Image processing equipment, imaging equipment, work support systems, control methods and programs Download PDF

Info

Publication number
JP6987537B2
JP6987537B2 JP2017112475A JP2017112475A JP6987537B2 JP 6987537 B2 JP6987537 B2 JP 6987537B2 JP 2017112475 A JP2017112475 A JP 2017112475A JP 2017112475 A JP2017112475 A JP 2017112475A JP 6987537 B2 JP6987537 B2 JP 6987537B2
Authority
JP
Japan
Prior art keywords
notification
subject
designated
work
work object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017112475A
Other languages
Japanese (ja)
Other versions
JP2018207359A (en
Inventor
勝巨 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017112475A priority Critical patent/JP6987537B2/en
Publication of JP2018207359A publication Critical patent/JP2018207359A/en
Application granted granted Critical
Publication of JP6987537B2 publication Critical patent/JP6987537B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • General Factory Administration (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、撮像装置、作業支援システム、制御方法およびプログラムに関する。 The present invention relates to an image processing device, an image pickup device, a work support system, a control method and a program.

遠隔地にいる支援者が、プリンタの修理や工事などの現場で作業する経験の浅い作業者に対して、ネットワークを経由してリモートサポートする遠隔作業支援システムが提案されている。特許文献1は、以下のようなリモートサポートシステムを開示している。作業者は撮影機能と表示機能を有するカメラ端末を持ちながら、作業状況を撮影したライブビュー画像を支援者が持つ作業支援端末に送信し、作業支援端末で表示されるライブビュー画像を支援者が確認する。そして、作業支援端末は、支援者がライブビュー画像内の所定位置に指示した指示データを受付け、指示データと指示位置を関連づけたデータをカメラ端末へ送信する。作業者の持つカメラ端末が、受信した指示データを表示することで、作業者は支援者の指示内容を確認する。 A remote work support system has been proposed in which a supporter in a remote location provides remote support via a network to an inexperienced worker who works at a site such as printer repair or construction. Patent Document 1 discloses the following remote support system. While the worker has a camera terminal with a shooting function and a display function, the supporter sends a live view image of the work situation to the work support terminal owned by the supporter, and the supporter sends the live view image displayed on the work support terminal. Confirm. Then, the work support terminal receives the instruction data instructed by the supporter at the predetermined position in the live view image, and transmits the data in which the instruction data and the instruction position are associated with each other to the camera terminal. The camera terminal of the worker displays the received instruction data, so that the worker confirms the instruction contents of the supporter.

特開2011−34315号公報Japanese Unexamined Patent Publication No. 2011-34315 特開2007−065330号公報Japanese Unexamined Patent Publication No. 2007-06533 特開2010−74315号公報Japanese Unexamined Patent Publication No. 2010-74315

特許文献1が開示するリモートサポートシステムでは、作業者側のカメラ端末に支援者からの指示内容を表示する表示デバイスが必要となる。また、作業支援端末には支援者の指示内容を処理する機能が必要となり、遠隔作業支援システムを構築するコストが高くなる。また、作業者は、カメラ端末を持ちながら支援者から送信される指示データを確認しなければならないので、カメラ端末が作業の妨げになる。本発明は、作業者側に表示デバイスがなくても、作業支援者が作業者の作業を効果的に支援できるようにする画像処理装置の提供を目的とする。 The remote support system disclosed in Patent Document 1 requires a display device that displays the content of instructions from the supporter on the camera terminal on the worker side. In addition, the work support terminal needs a function to process the instruction contents of the supporter, which increases the cost of constructing the remote work support system. In addition, since the worker must check the instruction data transmitted from the supporter while holding the camera terminal, the camera terminal hinders the work. An object of the present invention is to provide an image processing device that enables a work supporter to effectively support a worker's work even if the worker does not have a display device.

本発明の一実施形態の画像処理装置は、情報処理装置と通信する画像処理装置であって、前記情報処理装置に対して撮像画像を送信する送信手段と、前記情報処理装置によって指定された作業対象物の位置情報を前記情報処理装置から取得する取得手段と、第1の記憶部に記憶された撮像画像と、前記取得された位置情報とに基づいて、前記位置情報に対応する作業対象物を認識する第1の認識手段と、前記第1の記憶部に記憶された撮像画像に基づいて、前記作業対象物の指定に用いられる被写体を認識する第2の認識手段と、前記認識された作業対象物と前記被写体とを追尾する追尾手段と、前記追尾されている作業対象物と前記被写体との距離に基づいて、通知を行う通知手段とを備え、前記情報処理装置によって複数の作業対象物が指定された場合に、前記通知手段は、前記複数の作業対象物と前記被写体との距離に基づいて、前記通知を行い、前記画像処理装置は、さらに、前記複数の作業対象物の指定順を記憶する第2の記憶部を備え、前記追尾手段は、前記第2の記憶部に記憶された指定順にしたがって、前記作業対象物と前記被写体とを追尾し、前記通知手段は、前記第2の記憶部に記憶された指定順に応じて、通知内容を変更するThe image processing apparatus according to the embodiment of the present invention is an image processing apparatus that communicates with the information processing apparatus, and is a transmission means for transmitting an captured image to the information processing apparatus and a work designated by the information processing apparatus. A work object corresponding to the position information based on the acquisition means for acquiring the position information of the object from the information processing apparatus, the captured image stored in the first storage unit, and the acquired position information. The first recognition means for recognizing the subject and the second recognition means for recognizing the subject used for designating the work object based on the captured image stored in the first storage unit. It is provided with a tracking means for tracking a work object and the subject, and a notification means for notifying based on the distance between the tracked work object and the subject, and a plurality of work targets are provided by the information processing apparatus. When an object is designated, the notification means gives the notification based on the distance between the plurality of work objects and the subject, and the image processing apparatus further designates the plurality of work objects. A second storage unit for storing the order is provided, the tracking means tracks the work object and the subject in the designated order stored in the second storage unit, and the notification means is the first. The notification content is changed according to the designated order stored in the storage unit of 2 .

本発明によれば、作業者側に表示デバイスがなくても、作業支援者が作業者の作業を効果的に支援することが可能になる。 According to the present invention, the work supporter can effectively support the work of the worker even if the worker does not have a display device.

実施例1のシステム構成を示す図である。It is a figure which shows the system configuration of Example 1. FIG. 作業対象物と指定被写体とを一致させる動作を説明する図である。It is a figure explaining the operation of matching a work object and a designated subject. 作業対象物と指定被写体とを一致させる動作を説明するフローチャートである。It is a flowchart explaining the operation of matching a work object and a designated subject. 作業対象物と指定被写体とを一致させる動作を説明するフローチャートである。It is a flowchart explaining the operation of matching a work object and a designated subject. 作業支援端末の処理を説明するフローチャートである。It is a flowchart explaining the process of a work support terminal. 実施例2のシステム構成を示す図である。It is a figure which shows the system configuration of Example 2. 複数の作業対象物と指定被写体とを一致させる動作を説明する図である。It is a figure explaining the operation of matching a plurality of work objects with a designated subject. 複数の作業対象物と指定被写体とを一致させる動作を説明するフローチャートである。It is a flowchart explaining the operation of matching a plurality of work objects with a designated subject. 複数の作業対象物と指定被写体とを一致させる動作を説明するフローチャートである。It is a flowchart explaining the operation of matching a plurality of work objects with a designated subject.

(実施例1)
図1は、実施例1のシステム構成を示す図である。
図1に示す作業支援処理システムは、カメラ端末100と、作業支援端末120とを有する。カメラ端末100は、撮像装置であって、作業者側に設けられている。カメラ端末100は、例えば、プリンタ等の作業対象物に対して作業を行う作業者が装着するヘルメット等に設置されている。作業支援端末120は、作業者の作業を支援する作業支援者が操作する情報処理装置である。
(Example 1)
FIG. 1 is a diagram showing a system configuration of the first embodiment.
The work support processing system shown in FIG. 1 includes a camera terminal 100 and a work support terminal 120. The camera terminal 100 is an image pickup device and is provided on the operator side. The camera terminal 100 is installed on, for example, a helmet or the like worn by a worker who works on a work object such as a printer. The work support terminal 120 is an information processing device operated by a work supporter who supports the work of the worker.

カメラ端末100は、撮像光学系101、撮像素子102、A/D変換部103、システム制御部104、メモリ部105、マイク・スピーカ部106、画像処理部107、作業対象物認識部108、指定被写体認識部109を有する。また、カメラ端末100は、追尾部110、距離画像生成部111、距離算出部112、通知制御部113、通知部114、通信部115、バス116を有する。本発明は、システム制御部104乃至バス116を有する画像処理装置にも適用可能である。 The camera terminal 100 includes an image pickup optical system 101, an image pickup element 102, an A / D conversion unit 103, a system control unit 104, a memory unit 105, a microphone / speaker unit 106, an image processing unit 107, a work object recognition unit 108, and a designated subject. It has a recognition unit 109. Further, the camera terminal 100 has a tracking unit 110, a distance image generation unit 111, a distance calculation unit 112, a notification control unit 113, a notification unit 114, a communication unit 115, and a bus 116. The present invention is also applicable to an image processing apparatus having a system control unit 104 to a bus 116.

システム制御部104は、カメラ端末100全体を制御する。カメラ端末100は、例えばプログラマブルプロセッサ(以下、CPU)と、ROMと、RAMを有する。CPUが、ROMに記憶されたプログラムを実行し、各部を制御してカメラ端末100の機能を実現する。メモリ部105は、揮発性の記憶部(第1の記憶部)である。メモリ部105は、各ブロックからの要求に基づき、一時的に画像データや距離情報などを保存するバッファメモリとして機能する。 The system control unit 104 controls the entire camera terminal 100. The camera terminal 100 has, for example, a programmable processor (hereinafter, CPU), a ROM, and a RAM. The CPU executes a program stored in the ROM and controls each part to realize the function of the camera terminal 100. The memory unit 105 is a volatile storage unit (first storage unit). The memory unit 105 functions as a buffer memory for temporarily storing image data, distance information, and the like based on a request from each block.

撮像光学系101は、レンズ、シャッタ、絞りを有し、システム制御部104の指示に基づき、合焦距離、絞りの開口量、およびシャッタの開閉を制御する。撮像素子102は、システム制御部104の制御に基づき、撮像光学系101を通過した被写体光を光電変換して被写体像(撮像画像)のアナログ信号を生成する。また、撮像素子102は、測距機能を有する素子を備える。例えば、特許文献2に記載された技術を用いて、撮像光学系101のレンズの瞳上の異なる領域を通過した光束が、測距機能を有する画素を配置した撮像素子102に露光される。システム制御部104が、露光された光像の像ズレ量を取得し、距離画像生成部111を制御してデフォーカス量を算出する。 The image pickup optical system 101 has a lens, a shutter, and an aperture, and controls the focusing distance, the aperture amount of the aperture, and the opening / closing of the shutter based on the instruction of the system control unit 104. Based on the control of the system control unit 104, the image pickup element 102 photoelectrically converts the subject light that has passed through the image pickup optical system 101 to generate an analog signal of the subject image (captured image). Further, the image pickup device 102 includes an element having a distance measuring function. For example, using the technique described in Patent Document 2, the light flux that has passed through different regions on the pupil of the lens of the image pickup optical system 101 is exposed to the image pickup element 102 in which the pixel having the distance measuring function is arranged. The system control unit 104 acquires the image shift amount of the exposed light image, and controls the distance image generation unit 111 to calculate the defocus amount.

A/D変換部103は、システム制御部104の制御に基づき、撮像素子102から出力されたアナログ信号に対してA/D変換を行って、デジタル信号(以下、「RAWデータ」と記述)を生成し、メモリ部105に格納する。 The A / D conversion unit 103 performs A / D conversion on the analog signal output from the image pickup element 102 based on the control of the system control unit 104, and outputs a digital signal (hereinafter referred to as “RAW data”). Generate and store in the memory unit 105.

マイク・スピーカ部106は、一般に普及しているマイクデバイスとスピーカデバイスを有する音響入出力部である。マイク・スピーカ部106は、作業者が話した内容や周囲の音声を収音する機能と、作業支援端末120のマイク・スピーカ部123で収音した音声を出力する機能を備えている。 The microphone / speaker unit 106 is an acoustic input / output unit having a commonly used microphone device and speaker device. The microphone / speaker unit 106 has a function of picking up the content spoken by the operator and surrounding voices, and a function of outputting the voice picked up by the microphone / speaker unit 123 of the work support terminal 120.

画像処理部107は、システム制御部104の制御に基づき、メモリ部105に格納されたRAWデータに対して、ノイズ除去、ガンマ補正処理、ホワイトバランス調整処理などを施すことにより画像データを生成する。また、画像処理部107は、符号化処理や復号処理を行い、得られた画像データをメモリ部105に格納する。画像データは、システム制御部104の制御に基づき、所定のフレームレートで更新される。そして、画像データは、ネットワーク130を介して作業支援端末120に送信され、ライブビュー画像として表示部126に表示される。 Based on the control of the system control unit 104, the image processing unit 107 generates image data by performing noise removal, gamma correction processing, white balance adjustment processing, and the like on the RAW data stored in the memory unit 105. Further, the image processing unit 107 performs coding processing and decoding processing, and stores the obtained image data in the memory unit 105. The image data is updated at a predetermined frame rate under the control of the system control unit 104. Then, the image data is transmitted to the work support terminal 120 via the network 130 and displayed on the display unit 126 as a live view image.

作業対象物認識部108は、システム制御部104の制御により以下の処理を実行する第1の認識手段として機能する。作業対象物認識部108は、メモリ部105に格納された画像データと、通信部115が受信した位置情報の座標(以下、「指定座標」と記述)に基づき、作業支援者が指定した作業対象物の認識処理を行う。具体的には、作業対象物認識部108は、指定座標の周辺の領域を切り出し、認識した作業対象物を作業対象物テンプレート画像としてメモリ部105に格納する。そして、作業対象物認識部108は、作業対象物テンプレート画像の解析によって、作業対象物の特徴量と位置を含む情報(以下、「作業対象物追尾情報」と記述)を追尾部110に供給する。 The work object recognition unit 108 functions as a first recognition means that executes the following processing under the control of the system control unit 104. The work object recognition unit 108 is a work object designated by the work supporter based on the image data stored in the memory unit 105 and the coordinates of the position information received by the communication unit 115 (hereinafter referred to as “designated coordinates”). Performs object recognition processing. Specifically, the work object recognition unit 108 cuts out an area around the designated coordinates and stores the recognized work object as a work object template image in the memory unit 105. Then, the work object recognition unit 108 supplies information including the feature amount and position of the work object (hereinafter referred to as “work object tracking information”) to the tracking unit 110 by analyzing the work object template image. ..

指定被写体認識部109は、システム制御部104の制御に基づき、以下の処理を実行する第2の認識手段として機能する。指定被写体認識部109は、メモリ部105に格納された画像データに対し、後述する指定被写体のテンプレート画像を用いて、作業者の指などの、作業者が作業対象物を指定するために用いる被写体(以下、「指定被写体」と記述)の認識処理を行う。指定被写体のテンプレート画像は、予めカメラ端末100等で撮影された指定被写体の画像データである。指定被写体認識部109は、指定被写体のテンプレート画像に基づいて、画像データ内の被写体を解析するマッチング処理を実施する。指定被写体認識部109は、マッチング処理の際に、指定被写体のテンプレート画像の特徴量と解析により、特定した画像データ内の被写体の特徴量を比較して、類似度を算出する。指定被写体認識部109は、類似度に基づいて、指定被写体を特定する。そして、指定被写体認識部109は、指定被写体の類似度と位置を含む情報(以下、「指定被写体追尾情報」と記述)を追尾部110に供給する。 The designated subject recognition unit 109 functions as a second recognition means that executes the following processing based on the control of the system control unit 104. The designated subject recognition unit 109 uses the template image of the designated subject, which will be described later, with respect to the image data stored in the memory unit 105, and the designated subject recognition unit 109 is a subject used by the worker to specify a work object such as a worker's finger. (Hereinafter referred to as "designated subject") recognition processing is performed. The template image of the designated subject is image data of the designated subject previously taken by the camera terminal 100 or the like. The designated subject recognition unit 109 performs a matching process for analyzing the subject in the image data based on the template image of the designated subject. During the matching process, the designated subject recognition unit 109 compares the feature amounts of the subjects in the specified image data with the feature amounts of the template image of the designated subject and calculates the similarity. The designated subject recognition unit 109 identifies the designated subject based on the degree of similarity. Then, the designated subject recognition unit 109 supplies information including the similarity and position of the designated subject (hereinafter, referred to as “designated subject tracking information”) to the tracking unit 110.

追尾部110は、システム制御部104の制御に基づき、以下の処理を実行する。追尾部110は、作業対象物追尾情報と指定被写体追尾情報とに基づいて、画像データ内に存在する作業対象物と指定被写体の追尾処理を行う。追尾部110は、例えば、特許文献3に開示された方法を用いて、画像フレーム間の追尾のための情報によって特定される被写体領域における相関度を算出する。その後に、前フレームの被写体領域と追従関係にある被写体領域を現在のフレームより検出し、その動きベクトルを算出する。そして、動きベクトル量分だけ被写体領域を移動した座標を算出し、作業対象物と指定被写体の位置情報を更新する。追尾部110は、前記作業対象物と指定被写体の更新した位置情報を距離算出部112に供給する。 The tracking unit 110 executes the following processing based on the control of the system control unit 104. The tracking unit 110 performs tracking processing of the work object and the designated subject existing in the image data based on the work object tracking information and the designated subject tracking information. The tracking unit 110 calculates the degree of correlation in the subject region specified by the information for tracking between image frames, for example, by using the method disclosed in Patent Document 3. After that, the subject area having a follow-up relationship with the subject area of the previous frame is detected from the current frame, and its motion vector is calculated. Then, the coordinates of moving the subject area by the amount of the motion vector are calculated, and the position information of the work object and the designated subject is updated. The tracking unit 110 supplies the updated position information of the work object and the designated subject to the distance calculation unit 112.

距離画像生成部111は、システム制御部104の制御に基づき、撮像素子102で得られた像ズレ量から被写体領域毎のデフォーカス量を算出する。距離画像生成部111は、算出したデフォーカス量に基づいて、領域毎の奥行き方向の距離を示す距離画像を生成して、メモリ部105に格納する。距離算出部112は、システム制御部104の制御に基づき、以下の処理を実行する。距離算出部112は、追尾部110から得られた作業対象物と指定被写体の位置情報と、距離画像生成部111が生成した領域毎の距離画像とに基づいて、作業対象物の距離と指定被写体の距離とを算出する。本実施形態では、距離算出部112は、奥行き方向について、作業対象物の距離と指定被写体の距離とを算出する。距離算出部112は、作業対象物と指定被写体の位置情報に基づいて、作業対象物と指定被写体間の水平方向の距離情報を算出する。そして、距離算出部112は、水平方向の距離情報と、奥行き方向についての作業対象物の距離と指定被写体の距離とに基づいて、作業対象物と指定被写体間の3次元の距離情報(以下、評価距離)を算出する。なお、距離算出部112が、作業対象物と指定被写体の位置情報から算出される水平方向の距離を評価距離として算出するようにしてもよい。 The distance image generation unit 111 calculates the defocus amount for each subject area from the image shift amount obtained by the image pickup device 102 based on the control of the system control unit 104. The distance image generation unit 111 generates a distance image showing the distance in the depth direction for each area based on the calculated defocus amount, and stores it in the memory unit 105. The distance calculation unit 112 executes the following processing based on the control of the system control unit 104. The distance calculation unit 112 determines the distance of the work object and the designated subject based on the position information of the work object and the designated subject obtained from the tracking unit 110 and the distance image for each area generated by the distance image generation unit 111. And the distance of. In the present embodiment, the distance calculation unit 112 calculates the distance of the work object and the distance of the designated subject in the depth direction. The distance calculation unit 112 calculates the horizontal distance information between the work object and the designated subject based on the position information of the work object and the designated subject. Then, the distance calculation unit 112 is based on the distance information in the horizontal direction, the distance of the work object in the depth direction, and the distance of the designated subject, and the three-dimensional distance information between the work object and the designated subject (hereinafter referred to as “3D distance information”). Evaluation distance) is calculated. The distance calculation unit 112 may calculate the horizontal distance calculated from the position information of the work object and the designated subject as the evaluation distance.

通知部114は、作業対象物と指定被写体との距離に応じて音を出力する。本実施形態では、通知部114は、スピーカである。通知部114は、振動を伝達する振動モータ、光を出力する発光ダイオード等であってもよい。通知制御部113は、システム制御部104の制御に基づき、距離算出部112で得られた評価距離をもとに通知部114の制御を行う。本実施例では、通知制御部113は、評価距離に応じて、通知部114の音量を制御する。通知制御部113は、例えば、評価距離が近くなるほど、通知部114が発する音量を大きくする。通信部115は、システム制御部104の制御に基づいて、ネットワーク130を介して、作業支援端末120とデータの送受信を行う。バス116は、各モジュールを接続する。 The notification unit 114 outputs sound according to the distance between the work object and the designated subject. In the present embodiment, the notification unit 114 is a speaker. The notification unit 114 may be a vibration motor for transmitting vibration, a light emitting diode for outputting light, or the like. The notification control unit 113 controls the notification unit 114 based on the evaluation distance obtained by the distance calculation unit 112 based on the control of the system control unit 104. In this embodiment, the notification control unit 113 controls the volume of the notification unit 114 according to the evaluation distance. For example, the notification control unit 113 increases the volume emitted by the notification unit 114 as the evaluation distance becomes closer. The communication unit 115 transmits / receives data to / from the work support terminal 120 via the network 130 under the control of the system control unit 104. Bus 116 connects each module.

作業支援端末120は、システム制御部121、メモリ部122、マイク・スピーカ部123、作業対象物位置取得部124、通信部125、表示部126、操作部127、バス128を有する。 The work support terminal 120 includes a system control unit 121, a memory unit 122, a microphone / speaker unit 123, a work object position acquisition unit 124, a communication unit 125, a display unit 126, an operation unit 127, and a bus 128.

システム制御部121は、作業支援端末120全体を制御する。システム制御部121は、例えば、プログラマブルプロセッサ(以下、CPU)と、ROMと、RAMを有する。CPUが、ROMに記憶されたプログラムを実行し、各部を制御して作業支援端末120の機能を実現する。メモリ部122は、揮発性の記憶部である。メモリ部105は、各ブロックからの要求に基づき、一時的に画像データなどを保存するバッファメモリとして機能する。 The system control unit 121 controls the entire work support terminal 120. The system control unit 121 includes, for example, a programmable processor (hereinafter, CPU), a ROM, and a RAM. The CPU executes the program stored in the ROM and controls each part to realize the function of the work support terminal 120. The memory unit 122 is a volatile storage unit. The memory unit 105 functions as a buffer memory for temporarily storing image data and the like based on a request from each block.

マイク・スピーカ部123は、音響入出力部である。マイク・スピーカ部123は、一般に普及しているマイクデバイスとスピーカデバイスを有し、支援者が話した内容や周囲の音声を収音する機能と、カメラ端末100のマイク・スピーカ部106で収音した音声を出力する機能を備えている。操作部127は、支援者からの操作指示を受け付けるキーボード、マウス等の入力機器デバイスである。 The microphone / speaker unit 123 is an acoustic input / output unit. The microphone / speaker unit 123 has a microphone device and a speaker device that are widely used, and has a function of collecting sound of the content spoken by a supporter and surrounding voice, and sound collection by the microphone / speaker unit 106 of the camera terminal 100. It has a function to output the sound. The operation unit 127 is an input device device such as a keyboard and a mouse that receives an operation instruction from a supporter.

作業対象物位置取得部124は、システム制御部121の制御に基づき、操作部127から指定された座標を指定座標として取得し、メモリ部122に格納する。通信部125は、システム制御部121の制御に基づき、ネットワーク130を介して、カメラ端末100と音声・指定座標・画像データの送受信を行う。表示部126は、ディスプレイと表示コントローラを有し、システム制御部121の制御に基づき、メモリ部122に格納された画像データの内容を読み出して、ディスプレイに表示する。バス128は、各モジュールを接続するバスである。ネットワーク130は、複数の端末を接続して、相互に通信できるようにする広域通信網(WAN:Wide Area Network)である。なお、図1に示して説明したシステム構成は一例であり、以下に説明する動作を実行できるのであれば、本発明に係るシステム構成は、図1に示す構成に限定されるものではない。 Based on the control of the system control unit 121, the work object position acquisition unit 124 acquires the coordinates designated by the operation unit 127 as the designated coordinates and stores them in the memory unit 122. The communication unit 125 transmits / receives voice, designated coordinates, and image data to and from the camera terminal 100 via the network 130 under the control of the system control unit 121. The display unit 126 has a display and a display controller, and based on the control of the system control unit 121, reads out the contents of the image data stored in the memory unit 122 and displays the contents on the display. Bus 128 is a bus that connects each module. The network 130 is a wide area network (WAN: Wide Area Network) that connects a plurality of terminals so that they can communicate with each other. The system configuration described in FIG. 1 is an example, and the system configuration according to the present invention is not limited to the configuration shown in FIG. 1 as long as the operation described below can be executed.

図2は、作業対象物と指定被写体とを一致させる動作を説明する図である。
図2(A)は、作業支援端末120の表示部126に表示されるカメラ端末100で撮影されたライブビュー画像200を示す。作業支援者は、ライブビュー画像200を観察しながら作業者とマイク・スピーカ部123を通じてコミュニケーションする。図2(B)は、作業支援者が指定座標211を指定した際のライブビュー画像210を示す。作業支援端末120は、作業支援者が作業対象として指定した指定座標211の指定座標を取得し、カメラ端末100へ送信する。
FIG. 2 is a diagram illustrating an operation of matching a work object with a designated subject.
FIG. 2A shows a live view image 200 taken by the camera terminal 100 displayed on the display unit 126 of the work support terminal 120. The work supporter communicates with the worker through the microphone / speaker unit 123 while observing the live view image 200. FIG. 2B shows a live view image 210 when the work supporter specifies the designated coordinates 211. The work support terminal 120 acquires the designated coordinates of the designated coordinates 211 designated as the work target by the work supporter and transmits them to the camera terminal 100.

図2(C)は、距離画像生成部111によって生成される距離画像220を示す。距離画像220は、カメラ端末100からの距離で色分けがされており、カメラ端末100からの距離が近いと色が濃くなり、遠いと色が薄くなる。距離算出部112は、指定被写体追尾情報により特定された指定被写体221の座標と指定座標221との間の画像上での距離情報、および、距離画像220に基づいて、指定座標221と指定被写体222間の評価距離223を算出する。 FIG. 2C shows a distance image 220 generated by the distance image generation unit 111. The distance image 220 is color-coded according to the distance from the camera terminal 100. The color becomes darker when the distance from the camera terminal 100 is short, and the color becomes lighter when the distance from the camera terminal 100 is short. The distance calculation unit 112 sets the designated coordinates 221 and the designated subject 222 based on the distance information on the image between the coordinates of the designated subject 221 specified by the designated subject tracking information and the designated coordinates 221 and the distance image 220. The evaluation distance 223 between them is calculated.

図2(D)は、距離算出部112が算出した評価距離223と通知部114が通知する音量の対応関係を示す。通知部114は、評価距離223が近くなるほど、通知する音量を大きくする。図2(D)に示す状態では、通知部114が通知する音量は小さい。図2(E)は、作業支援者が作業対象として指定した指定座標211を作業者が探し当てた状態を示す。ライブビュー画像230の状態では、指定被写体232と指定座標211間の評価距離223が0になっている。図2(F)は、距離算出部112が算出した評価距離223と通知部114が通知する音量の対応関係を示す。評価距離223が0になったため、通知部114が通知を停止する。 FIG. 2D shows the correspondence between the evaluation distance 223 calculated by the distance calculation unit 112 and the volume notified by the notification unit 114. The notification unit 114 increases the volume of notification as the evaluation distance 223 gets closer. In the state shown in FIG. 2D, the volume notified by the notification unit 114 is low. FIG. 2E shows a state in which the worker finds the designated coordinates 211 designated as the work target by the work supporter. In the state of the live view image 230, the evaluation distance 223 between the designated subject 232 and the designated coordinates 211 is 0. FIG. 2F shows the correspondence between the evaluation distance 223 calculated by the distance calculation unit 112 and the volume notified by the notification unit 114. Since the evaluation distance 223 becomes 0, the notification unit 114 stops the notification.

図3および図4は、作業対象物と指定被写体とを一致させる動作を説明するフローチャートである。
S301において、カメラ端末100が、作業対象物を指定するための指定被写体として作業者の指を撮影し、指定被写体のテンプレート画像として記憶する。続いて、S302において、システム制御部104が、撮像光学系101、撮像素子102、A/D変換部103、画像処理部107を制御し、所定のフレームレートで撮像画像に係る画像データを生成し、メモリ部105に格納する。
3 and 4 are flowcharts illustrating an operation of matching a work object with a designated subject.
In S301, the camera terminal 100 captures the operator's finger as a designated subject for designating the work object and stores it as a template image of the designated subject. Subsequently, in S302, the system control unit 104 controls the image pickup optical system 101, the image pickup element 102, the A / D conversion unit 103, and the image processing unit 107 to generate image data related to the image pickup image at a predetermined frame rate. , Stored in the memory unit 105.

次に、S303において、距離画像生成部111が、像ズレ量に基づいて、被写体領域毎のデフォーカス量を算出し、領域毎の距離画像を生成する。距離画像生成部111は、生成した領域毎の距離画像をメモリ部105に格納する。S304において、通信部115が、メモリ部105に格納された画像データを作業支援端末120に送信する。 Next, in S303, the distance image generation unit 111 calculates the defocus amount for each subject area based on the image shift amount, and generates a distance image for each area. The distance image generation unit 111 stores the distance image for each generated area in the memory unit 105. In S304, the communication unit 115 transmits the image data stored in the memory unit 105 to the work support terminal 120.

次に、S305において、作業支援端末120が、カメラ端末100から送信された画像データに基づいて処理を行う。S305における処理については後述する。続いて、S306において、通信部115が、作業支援端末120から指定座標を受信したかを判定する。指定座標を受信した場合は、処理がS307に進む。指定座標を受信していない場合は、処理が図4のS309に進む。 Next, in S305, the work support terminal 120 performs processing based on the image data transmitted from the camera terminal 100. The processing in S305 will be described later. Subsequently, in S306, the communication unit 115 determines whether or not the designated coordinates have been received from the work support terminal 120. When the designated coordinates are received, the process proceeds to S307. If the designated coordinates have not been received, the process proceeds to S309 in FIG.

S307において、通信部115は、作業支援端末120から受信した指定座標を取得する。取得した指定座標をメモリ部105に格納する。続いて、図4のS308において、作業対象物認識部108が、メモリ部105に格納されている指定座標と画像データとに基づいて、作業対象物の認識処理を行い、作業対象物追尾情報を算出する。作業対象物認識部108は、算出した作業対象物追尾情報をメモリ部105に格納する。 In S307, the communication unit 115 acquires the designated coordinates received from the work support terminal 120. The acquired designated coordinates are stored in the memory unit 105. Subsequently, in S308 of FIG. 4, the work object recognition unit 108 performs the work object recognition process based on the designated coordinates and the image data stored in the memory unit 105, and obtains the work object tracking information. calculate. The work object recognition unit 108 stores the calculated work object tracking information in the memory unit 105.

次に、S309において、システム制御部104は、作業対象物が認識されたかを判定する。具体的には、システム制御部104は、作業対象物が過去に1回でも認識されたかを判定する。作業対象物が認識された場合は、処理がS310に進む。作業対象物が認識されていない場合は、処理が図3のS302に戻る。S310において、指定被写体認識部109が、指定被写体のテンプレート画像に基づいて、S302で生成した画像データに対してマッチング処理を行って指定被写体を認識し、指定被写体追尾情報を生成する。指定被写体認識部109は、生成した指定被写体追尾情報をメモリ部105に格納する。 Next, in S309, the system control unit 104 determines whether or not the work object has been recognized. Specifically, the system control unit 104 determines whether the work object has been recognized even once in the past. If the work object is recognized, the process proceeds to S310. If the work object is not recognized, the process returns to S302 in FIG. In S310, the designated subject recognition unit 109 performs matching processing on the image data generated in S302 based on the template image of the designated subject, recognizes the designated subject, and generates the designated subject tracking information. The designated subject recognition unit 109 stores the generated designated subject tracking information in the memory unit 105.

S311において、追尾部110が、メモリ部105に格納されている指定被写体追尾情報と作業対象物追尾情報とに基づいて、指定被写体と作業対象物の追尾処理を行う。追尾部110は、追尾処理結果に基づいて、メモリ部105に格納されている指定被写体と作業対象物の位置情報を更新する。 In S311 the tracking unit 110 performs tracking processing of the designated subject and the work object based on the designated subject tracking information and the work object tracking information stored in the memory unit 105. The tracking unit 110 updates the position information of the designated subject and the work object stored in the memory unit 105 based on the tracking processing result.

次に、S312において、距離算出部112が、S311において更新された指定被写体と作業対象物の位置情報と、領域毎の距離画像とに基づいて、指定被写体と作業対象物の位置に相当する距離情報を取得する。距離算出部112は、作業対象物の距離と指定被写体の距離に基づいて、評価距離を算出する。 Next, in S312, the distance calculation unit 112 determines the distance corresponding to the position of the designated subject and the work object based on the position information of the designated subject and the work object updated in S311 and the distance image for each area. Get information. The distance calculation unit 112 calculates the evaluation distance based on the distance of the work object and the distance of the designated subject.

次に、S313において、通知制御部113が、距離算出部112が算出した評価距離が所定の範囲内であるか(閾値以下であるか)を判定する。評価距離が閾値以下である場合は、処理がS314に進む。評価距離が閾値以下でない場合は、処理が図3のS302に戻る。 Next, in S313, the notification control unit 113 determines whether the evaluation distance calculated by the distance calculation unit 112 is within a predetermined range (whether it is equal to or less than the threshold value). If the evaluation distance is equal to or less than the threshold value, the process proceeds to S314. If the evaluation distance is not equal to or less than the threshold value, the process returns to S302 in FIG.

S314において、通知制御部113が、評価距離に応じて通知部114が発する音を制御する。例えば、通知制御部113は、評価距離が小さくなるほど、通知部114が発する音量を大きくし、評価距離が大きくなるほど、通知部114が発する音量を小さくする。 In S314, the notification control unit 113 controls the sound emitted by the notification unit 114 according to the evaluation distance. For example, the notification control unit 113 increases the volume emitted by the notification unit 114 as the evaluation distance decreases, and decreases the volume emitted by the notification unit 114 as the evaluation distance increases.

続いて、S315において、システム制御部104が、評価距離に基づいて、作業対象物と指定被写体とが一致したかを判定する。作業対象物と指定被写体とが一致していない場合は処理が図3のS302に戻る。作業対象物と指定被写体とが一致した場合は、処理を終了する。 Subsequently, in S315, the system control unit 104 determines whether the work object and the designated subject match based on the evaluation distance. If the work object and the designated subject do not match, the process returns to S302 in FIG. If the work object and the designated subject match, the process ends.

図5は、図3のS305における作業支援端末の処理を説明するフローチャートである。
S401において、通信部125が、ネットワーク130を介して、通信部115から送信された画像データを受信する。通信部125は、受信した画像データをメモリ部122に格納する。続いて、S402において、表示部126が、メモリ部122に格納された画像データを表示する。
FIG. 5 is a flowchart illustrating the processing of the work support terminal in S305 of FIG.
In S401, the communication unit 125 receives the image data transmitted from the communication unit 115 via the network 130. The communication unit 125 stores the received image data in the memory unit 122. Subsequently, in S402, the display unit 126 displays the image data stored in the memory unit 122.

次に、S403において、システム制御部121が、操作部127を通して指定座標の指定があったかを判定する。指定座標の指定がない場合は、処理を終了する。指定座標の指定があった場合は、処理がS404に進む。 Next, in S403, the system control unit 121 determines whether or not the designated coordinates have been designated through the operation unit 127. If the specified coordinates are not specified, the process ends. If the designated coordinates are specified, the process proceeds to S404.

S404において、作業対象物位置取得部124が、指定座標を取得し、メモリ部122に格納する。そして、S405において、通信部125が、メモリ部122に格納されている指定座標を、ネットワーク130を介して通信部115に送信する。 In S404, the work object position acquisition unit 124 acquires the designated coordinates and stores them in the memory unit 122. Then, in S405, the communication unit 125 transmits the designated coordinates stored in the memory unit 122 to the communication unit 115 via the network 130.

本実施例の作業支援システムによれば、指定被写体と作業対象物の距離が所定の範囲内になると作業者に通知することができる。これにより、作業者側に表示デバイスがなくても、作業支援者が指定した作業対象物を作業者に正確に通知することができ、作業者の作業を効果的に支援することができる。 According to the work support system of this embodiment, it is possible to notify the worker when the distance between the designated subject and the work object is within a predetermined range. As a result, even if the worker does not have a display device, the work object designated by the work supporter can be accurately notified to the worker, and the work of the worker can be effectively supported.

(実施例2)
図6は、実施例2のシステム構成を示す図である。
なお、図6において、実施例1の作業支援システムと同じ構成要素に関しては、同じ番号を付しており、説明を省略する。実施例2では、作業支援者が、複数の作業対象物を順番に指定する。
(Example 2)
FIG. 6 is a diagram showing a system configuration of the second embodiment.
In FIG. 6, the same components as those of the work support system of the first embodiment are assigned the same numbers, and the description thereof will be omitted. In the second embodiment, the work supporter designates a plurality of work objects in order.

カメラ端末500は、撮像素子102、A/D変換部103、システム制御部104、メモリ部105、マイク・スピーカ部106、画像処理部107、作業対象物認識部508、指定被写体認識部109を有する。また、カメラ端末500は、追尾部510、距離画像生成部111、距離算出部112、通知制御部513、通知部114、通信部115、バス116、作業対象物指定順記憶部517を有する。 The camera terminal 500 includes an image sensor 102, an A / D conversion unit 103, a system control unit 104, a memory unit 105, a microphone / speaker unit 106, an image processing unit 107, a work object recognition unit 508, and a designated subject recognition unit 109. .. Further, the camera terminal 500 has a tracking unit 510, a distance image generation unit 111, a distance calculation unit 112, a notification control unit 513, a notification unit 114, a communication unit 115, a bus 116, and a work object designation order storage unit 517.

作業対象物認識部508は、メモリ部105に格納された画像データに対し、通信部115で受信した指定座標に基づいて、作業支援者が指定した作業対象物の認識処理を行う。作業対象物認識部508は、受信された指定座標の数だけ作業対象物を認識する。作業対象物指定順記憶部517は、通信部115で受信した指定座標の指定順を記憶する第2の記憶部として機能する。 The work object recognition unit 508 performs recognition processing of the work object designated by the work supporter on the image data stored in the memory unit 105 based on the designated coordinates received by the communication unit 115. The work object recognition unit 508 recognizes the work object by the number of received designated coordinates. The work object designated order storage unit 517 functions as a second storage unit that stores the designated order of the designated coordinates received by the communication unit 115.

追尾部510は、作業対象物認識部508から作業対象物追尾情報を取得する。また、追尾部510は、指定被写体認識部109から指定被写体追尾情報を取得する。追尾部510は、作業対象物追尾情報と指定被写体追尾情報とに基づいて、画像データ内に存在する作業対象物と指定被写体の追尾処理を行う。追尾部510は、作業対象物指定順記憶部517に記憶されている指定順のうち、先頭つまり最先の指定順に対応する作業対象物追尾情報を用いて追尾処理を行う。 The tracking unit 510 acquires work object tracking information from the work object recognition unit 508. Further, the tracking unit 510 acquires the designated subject tracking information from the designated subject recognition unit 109. The tracking unit 510 performs tracking processing of the work object and the designated subject existing in the image data based on the work object tracking information and the designated subject tracking information. The tracking unit 510 performs tracking processing using the work object tracking information corresponding to the head, that is, the earliest designated order among the designated orders stored in the work object designation order storage unit 517.

通知制御部513は、距離算出部112で得られた評価距離と作業対象物指定順記憶部517が記憶している指定座標の指定順に基づいて、通知部114を制御する。通知制御部513は、評価距離に応じて、通知部114による通知内容を変更する。通知制御部513は、作業対象物指定順記憶部517が記憶している指定順に応じて、通知内容を変更してもよい。例えば、通知制御部513は、指定順に応じて、音を鳴らす周期を変更する。 The notification control unit 513 controls the notification unit 114 based on the evaluation distance obtained by the distance calculation unit 112 and the designated order of the designated coordinates stored in the work object designation order storage unit 517. The notification control unit 513 changes the content of the notification by the notification unit 114 according to the evaluation distance. The notification control unit 513 may change the notification content according to the designated order stored in the work object designation order storage unit 517. For example, the notification control unit 513 changes the cycle of sounding according to the designated order.

図7は、複数の作業対象物と指定被写体とを指定順にしたがって順番に一致させる動作を説明する図である。
本実施例で実施例1と同じ内容に関しては、説明を省略する。図7(A)は、図2(A)と同様に、作業支援端末120の表示部126に表示されるカメラ端末500で撮影されたライブビュー画像200を示す。図7(B)は、作業支援者が、指定座標601を指定し、次に指定座標602を指定した状態におけるライブビュー画像600を示す。作業支援端末120は、作業支援者が作業対象として指定した指定座標601と指定座標602の指定座標を取得し、カメラ端末100に送信する。通知制御部513は、指定座標の指定順に、評価距離に応じた通知部114の制御を実行する。
FIG. 7 is a diagram illustrating an operation of matching a plurality of work objects and a designated subject in a designated order and therefore in order.
The same contents as those of the first embodiment will be omitted in the present embodiment. FIG. 7A shows a live view image 200 taken by the camera terminal 500 displayed on the display unit 126 of the work support terminal 120, similarly to FIG. 2A. FIG. 7B shows a live view image 600 in a state where the work supporter has specified the designated coordinates 601 and then the designated coordinates 602. The work support terminal 120 acquires the designated coordinates 601 and the designated coordinates 602 designated by the work supporter as work targets and transmits them to the camera terminal 100. The notification control unit 513 controls the notification unit 114 according to the evaluation distance in the order in which the designated coordinates are designated.

図7(C)は、図2(C)と同様に、距離画像生成部111によって生成される距離画像220を示す。図7(D)は、図2(D)と同様に、距離算出部112が算出した評価距離223と通知部114が通知する音量の対応関係を示す。また、図7(E)は、図2(E)と同様に、作業者が最初の作業対象物を捜し当てた状態での、指定被写体232と指定座標211間の評価距離223を示す。図7(F)は、図2(F)と同様に、距離算出部112が算出した評価距離223と通知部114が通知する音量との対応関係を示す。 FIG. 7C shows a distance image 220 generated by the distance image generation unit 111, similarly to FIG. 2C. FIG. 7D shows the correspondence between the evaluation distance 223 calculated by the distance calculation unit 112 and the volume notified by the notification unit 114, similarly to FIG. 2D. Further, FIG. 7 (E) shows an evaluation distance 223 between the designated subject 232 and the designated coordinates 211 in a state where the operator has searched for the first work object, as in FIG. 2 (E). FIG. 7F shows the correspondence between the evaluation distance 223 calculated by the distance calculation unit 112 and the volume notified by the notification unit 114, similarly to FIG. 2F.

図6(G)は、作業支援者が作業対象として指定した指定座標601と指定被写体232とが一致した後の状態を示す。システム制御部104が、指定座標601と指定被写体232とが一致したと判定した場合、指定座標601の次の指定順である指定座標602が追尾対象となる。そして、指定被写体232が検出され、通知部114が指定座標602と指定被写体232間の評価距離612に対応した音で通知を行う。図6(H)は、距離算出部112が算出した評価距離612と通知部114が通知する音量の対応関係を示す図である。図7(H)に示す例では、評価距離612が大きいので、通知部114からの通知は行われていない。 FIG. 6G shows a state after the designated coordinates 601 designated as the work target by the work supporter and the designated subject 232 match. When the system control unit 104 determines that the designated coordinates 601 and the designated subject 232 match, the designated coordinates 602, which is the next designated order after the designated coordinates 601 are to be tracked. Then, the designated subject 232 is detected, and the notification unit 114 gives a notification with a sound corresponding to the evaluation distance 612 between the designated coordinates 602 and the designated subject 232. FIG. 6H is a diagram showing the correspondence between the evaluation distance 612 calculated by the distance calculation unit 112 and the volume notified by the notification unit 114. In the example shown in FIG. 7 (H), since the evaluation distance 612 is large, the notification unit 114 does not notify.

図8および図9は、実施例2における、複数の作業対象物と指定被写体とを順番に一致させる動作を説明するフローチャートである。
作業支援端末側の処理に関しては、図5を参照して説明した処理と同様である。また、本フローチャートにおける処理で図3および図4のフローチャートにおける処理と同じ処理については、同じ番号を付しており、説明を省略する。
8 and 9 are flowcharts illustrating an operation of sequentially matching a plurality of work objects and a designated subject in the second embodiment.
The processing on the work support terminal side is the same as the processing described with reference to FIG. Further, the same processing as the processing in the flowcharts of FIGS. 3 and 4 in the processing in this flowchart is assigned the same number, and the description thereof will be omitted.

S701において、システム制御部104が、作業支援端末120からの指定座標の送信が全て完了したか判定する。例えば、作業支援者が全ての作業対象物を選択した後に完了コマンドを送信する。システム制御部104は、通信部115が完了コマンドを受信した場合は、作業支援端末120からの指定座標の送信が全て完了したと判定する。 In S701, the system control unit 104 determines whether all the transmission of the designated coordinates from the work support terminal 120 is completed. For example, a work supporter sends a completion command after selecting all work objects. When the communication unit 115 receives the completion command, the system control unit 104 determines that all transmission of the designated coordinates from the work support terminal 120 has been completed.

作業支援端末120からの指定座標の送信が全て完了した場合は、処理がS703に進む。作業支援端末120からの指定座標の送信が完了していない場合は、処理がS306に進む。 When all the transmission of the designated coordinates from the work support terminal 120 is completed, the process proceeds to S703. If the transmission of the designated coordinates from the work support terminal 120 is not completed, the process proceeds to S306.

S702において、システム制御部104が、S308で認識された作業対象物が何番目に指定された作業対象物であるかを示す指定順を作業対象物指定順記憶部517に記憶する。そして、処理がS302に戻る。S703において、システム制御部104が、作業対象物指定順記憶部517に記憶されている指定順のうち、先頭の指定順に対応する作業対象物の作業対象物追尾情報を追尾対象として設定する。 In S702, the system control unit 104 stores in the work object designation order storage unit 517 the designated order indicating the order in which the work object recognized in S308 is the designated work object. Then, the process returns to S302. In S703, the system control unit 104 sets the work object tracking information of the work object corresponding to the first designated order among the designated orders stored in the work object designation order storage unit 517 as the tracking target.

図9のS704において、通知制御部513が、評価距離が所定の距離範囲内であるかを判定する。評価距離が所定の距離範囲内でない場合は、処理がS302に戻る。評価距離が所定の距離範囲内である場合は、処理がS314に進む。そして、S314において、通知制御部513が、通知部114を制御して、評価距離に応じた音量で通知を行う。通知制御部513が、作業対象物指定順記憶部517が記憶している指定順に応じて、音を鳴らす周期を変更してもよい。 In S704 of FIG. 9, the notification control unit 513 determines whether the evaluation distance is within a predetermined distance range. If the evaluation distance is not within the predetermined distance range, the process returns to S302. If the evaluation distance is within a predetermined distance range, the process proceeds to S314. Then, in S314, the notification control unit 513 controls the notification unit 114 to perform notification at a volume corresponding to the evaluation distance. The notification control unit 513 may change the cycle of sounding the sound according to the designated order stored in the work object designation order storage unit 517.

S705において、システム制御部104が、全ての作業対象物に対して処理が完了したかを判定する。処理が完了していない作業対象物がある場合は、処理がS706に進む。全ての作業対象物に対して処理が完了した場合は、処理を終了する。S706において、システム制御部104が、次の指定順の作業対象物を指定順の先頭に指定する。そして、処理が図8のS302に戻る。実施例2の作業支援システムによれば、作業支援者が複数指定した作業対象物を指定した順番で作業者に通知することができる。 In S705, the system control unit 104 determines whether or not the processing has been completed for all the work objects. If there is a work object for which the process has not been completed, the process proceeds to S706. When the processing is completed for all the work objects, the processing is terminated. In S706, the system control unit 104 designates the work object in the following designated order at the beginning of the designated order. Then, the process returns to S302 in FIG. According to the work support system of the second embodiment, the work supporter can notify the worker of a plurality of designated work objects in a designated order.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ端末
120 作業支援端末
100 Camera terminal 120 Work support terminal

Claims (10)

情報処理装置と通信する画像処理装置であって、
前記情報処理装置に対して撮像画像を送信する送信手段と、
前記情報処理装置によって指定された作業対象物の位置情報を前記情報処理装置から取得する取得手段と、
第1の記憶部に記憶された撮像画像と、前記取得された位置情報とに基づいて、前記位置情報に対応する作業対象物を認識する第1の認識手段と、
前記第1の記憶部に記憶された撮像画像に基づいて、前記作業対象物の指定に用いられる被写体を認識する第2の認識手段と、
前記認識された作業対象物と前記被写体とを追尾する追尾手段と、
前記追尾されている作業対象物と前記被写体との距離に基づいて、通知を行う通知手段とを備え
前記情報処理装置によって複数の作業対象物が指定された場合に、前記通知手段は、前記複数の作業対象物と前記被写体との距離に基づいて、前記通知を行い、
前記画像処理装置は、さらに、前記複数の作業対象物の指定順を記憶する第2の記憶部を備え、
前記追尾手段は、前記第2の記憶部に記憶された指定順にしたがって、前記作業対象物と前記被写体とを追尾し、
前記通知手段は、前記第2の記憶部に記憶された指定順に応じて、通知内容を変更する
ことを特徴とする画像処理装置。
An image processing device that communicates with an information processing device.
A transmission means for transmitting an captured image to the information processing device, and
An acquisition means for acquiring the position information of a work object designated by the information processing device from the information processing device, and
A first recognition means for recognizing a work object corresponding to the position information based on the captured image stored in the first storage unit and the acquired position information.
A second recognition means for recognizing a subject used for designating the work object based on the captured image stored in the first storage unit, and
A tracking means for tracking the recognized work object and the subject,
It is provided with a notification means for notifying based on the distance between the tracked work object and the subject .
When a plurality of work objects are designated by the information processing apparatus, the notification means performs the notification based on the distance between the plurality of work objects and the subject.
The image processing device further includes a second storage unit that stores the designated order of the plurality of work objects.
The tracking means tracks the work object and the subject in the designated order stored in the second storage unit.
The notification means is an image processing device characterized in that the notification content is changed according to the designated order stored in the second storage unit.
前記通知手段は、前記作業対象物と前記被写体との距離が閾値以下になった場合に、前記通知を行う
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1 , wherein the notification means performs the notification when the distance between the work object and the subject becomes equal to or less than a threshold value.
前記通知手段は、前記作業対象物と前記被写体との距離に応じて、通知内容を変更する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2 , wherein the notification means changes the notification content according to the distance between the work object and the subject.
前記通知手段は、音の出力によって前記通知を行う
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3 , wherein the notification means performs the notification by outputting sound.
前記通知手段は、振動によって前記通知を行う
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3 , wherein the notification means performs the notification by vibration.
前記通知手段は、光の出力によって前記通知を行う
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 5 , wherein the notification means performs the notification by outputting light.
被写体光を光電変換して前記撮像画像を撮像する撮像素子と、請求項1乃至6のいずれか1項に記載の画像処理装置とを備えることを特徴とする撮像装置。 An image pickup apparatus comprising: an image pickup element that photoelectrically converts subject light to capture an image pickup image, and an image processing apparatus according to any one of claims 1 to 6. 画像処理装置と、前記画像処理装置と通信する情報処理装置とを有するシステムであって、
前記画像処理装置は、
前記情報処理装置に対して撮像画像を送信する送信手段と、
前記情報処理装置から作業対象物の位置情報を取得する取得手段と、
第1の記憶部に記憶された撮像画像と、前記取得された位置情報とに基づいて、前記位置情報に対応する作業対象物を認識する第1の認識手段と、
前記第1の記憶部に記憶された撮像画像に基づいて、前記作業対象物の指定に用いられる被写体を認識する第2の認識手段と、
前記認識された作業対象物と前記被写体とを追尾する追尾手段と、
前記追尾されている作業対象物と前記被写体との距離に基づいて、通知を行う通知手段と、を備え、
前記情報処理装置によって複数の作業対象物が指定された場合に、前記通知手段は、前記複数の作業対象物と前記被写体との距離に基づいて、前記通知を行い、
前記画像処理装置は、さらに、前記複数の作業対象物の指定順を記憶する第2の記憶部を備え、
前記追尾手段は、前記第2の記憶部に記憶された指定順にしたがって、前記作業対象物と前記被写体とを追尾し、
前記通知手段は、前記第2の記憶部に記憶された指定順に応じて、通知内容を変更し、
前記情報処理装置は、
前記画像処理装置から送信された撮像画像を表示する表示手段と、
前記作業対象物の位置情報を指定する指定手段と、
前記指定された位置情報を前記画像処理装置に送信する送信手段と、を備える
ことを特徴とする作業支援システム。
A system having an image processing device and an information processing device that communicates with the image processing device.
The image processing device is
A transmission means for transmitting an captured image to the information processing device, and
An acquisition means for acquiring position information of a work object from the information processing device, and
A first recognition means for recognizing a work object corresponding to the position information based on the captured image stored in the first storage unit and the acquired position information.
A second recognition means for recognizing a subject used for designating the work object based on the captured image stored in the first storage unit, and
A tracking means for tracking the recognized work object and the subject,
A notification means for notifying based on the distance between the tracked work object and the subject is provided.
When a plurality of work objects are designated by the information processing apparatus, the notification means performs the notification based on the distance between the plurality of work objects and the subject.
The image processing device further includes a second storage unit that stores the designated order of the plurality of work objects.
The tracking means tracks the work object and the subject in the designated order stored in the second storage unit.
The notification means changes the notification content according to the designated order stored in the second storage unit.
The information processing device is
A display means for displaying an captured image transmitted from the image processing device, and
Designating means for designating the position information of the work object and
A work support system comprising: a transmission means for transmitting the designated position information to the image processing device.
情報処理装置と通信する画像処理装置の制御方法であって、
前記情報処理装置に対して撮像画像を送信する工程と、
前記情報処理装置によって指定された作業対象物の位置情報を前記情報処理装置から取得する工程と、
第1の記憶部に記憶された撮像画像と、前記取得された位置情報とに基づいて、前記位置情報に対応する作業対象物を認識する工程と、
前記第1の記憶部に記憶された撮像画像に基づいて、前記作業対象物の指定に用いられる被写体を認識する工程と、
前記認識された作業対象物と前記被写体とを追尾する工程と、
前記追尾されている作業対象物と前記被写体との距離に基づいて、通知を行う工程とを有し、
前記情報処理装置によって複数の作業対象物が指定された場合に、前記通知を行う工程は、前記複数の作業対象物と前記被写体との距離に基づいて、前記通知を行い、
前記画像処理装置は、さらに、前記複数の作業対象物の指定順を記憶する第2の記憶部を備え、
前記追尾する工程は、前記第2の記憶部に記憶された指定順にしたがって、前記作業対象物と前記被写体とを追尾し、
前記通知を行う工程は、前記第2の記憶部に記憶された指定順に応じて、通知内容を変更する
ことを特徴とする制御方法。
It is a control method of an image processing device that communicates with an information processing device.
The process of transmitting the captured image to the information processing device and
The process of acquiring the position information of the work object designated by the information processing device from the information processing device, and
A step of recognizing a work object corresponding to the position information based on the captured image stored in the first storage unit and the acquired position information.
A step of recognizing a subject used for designating a work object based on an captured image stored in the first storage unit, and a step of recognizing the subject.
The process of tracking the recognized work object and the subject,
Based on the distance between the workpiece and the object being the tracking, possess and performing notification,
When a plurality of work objects are designated by the information processing apparatus, the step of performing the notification performs the notification based on the distance between the plurality of work objects and the subject.
The image processing device further includes a second storage unit that stores the designated order of the plurality of work objects.
In the tracking step, the work object and the subject are tracked in the designated order stored in the second storage unit.
The step of performing the notification is a control method characterized in that the content of the notification is changed according to the designated order stored in the second storage unit.
コンピュータを請求項1乃至6のいずれか1項に記載の画像処理装置が備える各手段と
して機能させることを特徴とするプログラム。
A program characterized in that a computer functions as each means provided in the image processing apparatus according to any one of claims 1 to 6.
JP2017112475A 2017-06-07 2017-06-07 Image processing equipment, imaging equipment, work support systems, control methods and programs Active JP6987537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112475A JP6987537B2 (en) 2017-06-07 2017-06-07 Image processing equipment, imaging equipment, work support systems, control methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112475A JP6987537B2 (en) 2017-06-07 2017-06-07 Image processing equipment, imaging equipment, work support systems, control methods and programs

Publications (2)

Publication Number Publication Date
JP2018207359A JP2018207359A (en) 2018-12-27
JP6987537B2 true JP6987537B2 (en) 2022-01-05

Family

ID=64958417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112475A Active JP6987537B2 (en) 2017-06-07 2017-06-07 Image processing equipment, imaging equipment, work support systems, control methods and programs

Country Status (1)

Country Link
JP (1) JP6987537B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4288843B2 (en) * 2000-10-25 2009-07-01 沖電気工業株式会社 Remote work support system
JP5186641B2 (en) * 2009-08-24 2013-04-17 トモデータサービス有限会社 Work support device and work support program
JP5887526B2 (en) * 2011-07-19 2016-03-16 パナソニックIpマネジメント株式会社 Work detection system
JP6337822B2 (en) * 2015-04-15 2018-06-06 株式会社デンソー Inspection device and program
JP6586824B2 (en) * 2015-08-27 2019-10-09 富士通株式会社 Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2018207359A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP4624577B2 (en) Human interface system with multiple sensors
KR102111935B1 (en) Display control apparatus, display control method, and program
JP4459788B2 (en) Facial feature matching device, facial feature matching method, and program
CN109453517B (en) Virtual character control method and device, storage medium and mobile terminal
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
WO2014108976A1 (en) Object detecting device
JP7222231B2 (en) Action recognition device, action recognition method and program
JP2014222825A (en) Video processing apparatus and video processing method
JP6977337B2 (en) Site recognition method, device, program, and imaging control system
JP2010124028A (en) Monitoring apparatus
JPH1144533A (en) Preceding vehicle detector
JP6987537B2 (en) Image processing equipment, imaging equipment, work support systems, control methods and programs
US11559888B2 (en) Annotation device
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP6987538B2 (en) Image processing equipment, work support systems, control methods and programs
JP2018207420A (en) Remote work support system
KR20160062665A (en) Apparatus and method for analyzing motion
CN211827195U (en) Interactive device
JP2019160034A (en) Correction system of operation recognition image data
CN115037869A (en) Automatic focusing method and device, electronic equipment and computer readable storage medium
JP2014039165A (en) Photographing device with tracking function
CN112995499A (en) Method for photographing and collecting ears
CN115037871A (en) Method and device for controlling focusing, electronic equipment and computer readable storage medium
JP2021022783A (en) Control device, tracking system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R151 Written notification of patent or utility model registration

Ref document number: 6987537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151