WO2023145698A1 - Camera device and image processing method - Google Patents

Camera device and image processing method Download PDF

Info

Publication number
WO2023145698A1
WO2023145698A1 PCT/JP2023/001984 JP2023001984W WO2023145698A1 WO 2023145698 A1 WO2023145698 A1 WO 2023145698A1 JP 2023001984 W JP2023001984 W JP 2023001984W WO 2023145698 A1 WO2023145698 A1 WO 2023145698A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera device
captured image
memory
data
Prior art date
Application number
PCT/JP2023/001984
Other languages
French (fr)
Japanese (ja)
Inventor
雄一 畑瀬
隆宏 池
利章 篠原
Original Assignee
i-PRO株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by i-PRO株式会社 filed Critical i-PRO株式会社
Publication of WO2023145698A1 publication Critical patent/WO2023145698A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

A camera device comprising: a memory for inputting and outputting a signal; an image sensor for imaging an object and outputting to the memory, as captured images of the object, a first captured image having a first resolution and a second captured image having a second resolution smaller than the first resolution; an image processing unit for performing detection processing for detecting whether a detection object is included in captured images output from the memory; and an interface for outputting the result of the detection processing.

Description

カメラ装置および画像処理方法Camera device and image processing method
 本開示は、カメラ装置および画像処理方法に関する。 The present disclosure relates to a camera device and an image processing method.
 近年、工場等の生産施設では、基板への部品搭載、ワークへのラベル貼付、部品組立、部品加工、溶接等、の動作を行う産業用ロボットが用いられている。また、産業用ロボットの動作をカメラの撮像画像に基づいて指示するという運用が普及している。このような運用の下では、例えば産業用ロボットの動作の高速化を目的として、カメラの処理遅延を低減するための各種の対策が求められている。 In recent years, in production facilities such as factories, industrial robots have been used to perform operations such as mounting parts on substrates, attaching labels to workpieces, assembling parts, processing parts, and welding. In addition, the operation of instructing the operation of an industrial robot based on an image captured by a camera has become widespread. Under such operation, various countermeasures are required to reduce the processing delay of the camera, for example, for the purpose of speeding up the operation of industrial robots.
 例えば、対象物の撮像画像について、ゴミや汚れの付着、照明の変化、個体差による表面状態の違い等により、エッジ方向が部分的に反転した場合でも認識ミスを防止しつつ処理時間を短縮化する画像処理装置が開示されている(特許文献1参照)。特許文献1では、テンプレート画像中の特徴画像の点と、被探索画像における特徴画像の点に対応する位置の点との仮の局所スコアを計算する。続いて、特許文献1では、仮の局所スコアが0以上であると判断した場合に、仮の局所スコアを局所スコアとし、仮の局所スコアが0を下回ると判断した場合に、仮の局所スコアに係数を乗算して局所類似度とする。 For example, for captured images of objects, even if the edge direction is partially reversed due to dust or stains, changes in lighting, or differences in surface conditions due to individual differences, recognition errors can be prevented and processing time can be shortened. An image processing apparatus for processing is disclosed (see Patent Document 1). In Patent Literature 1, a temporary local score is calculated between a point of a feature image in a template image and a point at a position corresponding to the point of the feature image in a search image. Subsequently, in Patent Document 1, when it is determined that the temporary local score is 0 or more, the temporary local score is set as the local score, and when it is determined that the temporary local score is less than 0, the temporary local score is multiplied by a coefficient to obtain the local similarity.
日本国特開2016-18422号公報Japanese Patent Application Laid-Open No. 2016-18422
 特許文献1によれば、対象物の撮像画像に表面状態の違いがあっても画像処理装置が行うパターンマッチング処理を短縮化することができる。しかし、特許文献1では、画像処理装置が行う処理全体(例えば、カメラから伝送されてくる画像データの入力、メモリへの転送、パターンマッチング処理、パターンマッチング処理結果の出力を含む一連の処理)の低遅延化については言及されていない。 According to Patent Document 1, pattern matching processing performed by an image processing device can be shortened even if there is a difference in the surface state of the captured image of the object. However, in Patent Document 1, the entire processing performed by the image processing apparatus (for example, a series of processing including input of image data transmitted from a camera, transfer to memory, pattern matching processing, and output of pattern matching processing results) is described. No mention is made of low latency.
 本開示は、上述した従来の事情に鑑みて案出され、カメラ装置を用いた処理全体の低遅延化を実現可能とすることを目的とする。 The present disclosure has been devised in view of the above-described conventional circumstances, and aims to make it possible to reduce the overall delay of processing using a camera device.
 本開示は、信号を入出力するメモリと、対象物を撮像し、前記対象物の撮像画像として、第1解像度を有する第1撮像画像と、前記第1解像度よりも小さい第2解像度を有する第2撮像画像とを前記メモリに出力するイメージセンサと、前記メモリから出力された撮像画像に検知対象物が含まれるか否かを検知する検知処理を行う画像処理部と、前記検知処理の結果を出力するインターフェースと、を備える、カメラ装置を提供する。 The present disclosure includes a memory for inputting and outputting a signal, an image of an object, and as an image of the object, a first image having a first resolution and a second image having a second resolution smaller than the first resolution. 2 an image sensor that outputs a captured image to the memory; an image processing unit that performs detection processing for detecting whether or not a detection target is included in the captured image output from the memory; and a result of the detection processing. and an interface for outputting.
 また、本開示は、対象物を撮像し、前記対象物の撮像画像として、第1解像度を有する第1撮像画像と、前記第1解像度よりも小さい第2解像度を有する第2撮像画像とを、データを入出力するメモリに出力することと、前記メモリから出力された撮像画像に検知対象物が含まれるか否かを検知する検知処理を行うことと、前記検知処理の結果を出力することと、を含む、画像処理方法を提供する。 Further, in the present disclosure, an object is imaged, and as the imaged images of the object, a first imaged image having a first resolution and a second imaged image having a second resolution smaller than the first resolution, outputting data to a memory for inputting and outputting data; performing detection processing for detecting whether or not a captured image output from the memory includes a detection target; and outputting a result of the detection processing. To provide an image processing method comprising:
 なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体のうち、一つ以上を含む任意の組み合わせにより実現されてもよい。 These generic or specific aspects may be realized by any combination including one or more of systems, devices, methods, integrated circuits, computer programs, or recording media.
 本開示によれば、カメラ装置を用いた処理全体の低遅延化を実現可能である。 According to the present disclosure, it is possible to reduce the delay of the entire processing using the camera device.
 本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and effects of one aspect of the present disclosure will be made clear from the specification and drawings. Such advantages and/or advantages are provided by the several embodiments and features described in the specification and drawings, respectively, not necessarily all provided to obtain one or more of the same features. no.
図1は、実施の形態1に係るロボット制御システムのユースケース例を示す図である。FIG. 1 is a diagram showing a use case example of the robot control system according to the first embodiment. 図2は、実施の形態1に係るロボット制御システムのシステム構成例を示す図である。FIG. 2 is a diagram showing a system configuration example of the robot control system according to the first embodiment. 図3は、実施の形態1に係るカメラ装置の動作モードの一例を示す図である。FIG. 3 is a diagram showing an example of operation modes of the camera device according to Embodiment 1. FIG. 図4は、実施の形態1に係るカメラ装置の第1動作例におけるデータフローを時系列に示す図である。FIG. 4 is a diagram showing the data flow in time series in the first operation example of the camera device according to the first embodiment. 図5は、実施の形態1に係る第1動作例に係る動作手順例を示すフローチャートである。FIG. 5 is a flowchart showing an operation procedure example according to the first operation example according to the first embodiment. 図6は、実施の形態1に係るカメラ装置の第2動作例におけるデータフローを時系列に示す図である。FIG. 6 is a diagram showing the data flow in time series in the second operation example of the camera device according to the first embodiment. 図7は、実施の形態1に係る第2動作例に係る動作手順例を示すフローチャートである。7 is a flowchart illustrating an example of an operation procedure according to a second example of operation according to Embodiment 1. FIG. 図8は、実施の形態1に係るカメラ装置の第3動作例におけるデータフローを時系列に示す図である。8 is a diagram showing a data flow in time series in the third operation example of the camera device according to Embodiment 1. FIG. 図9は、実施の形態1に係る第3動作例に係る動作手順例を示すフローチャートである。9 is a flowchart illustrating an example of an operation procedure according to a third example of operation according to Embodiment 1. FIG. 図10は、実施の形態1の変形例に係るカメラ装置の画像処理部の構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of an image processing unit of a camera device according to a modification of Embodiment 1; FIG. 図11は、比較例に係るカメラ装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a camera device according to a comparative example. 図12は、比較例に係るカメラ装置の動作手順例を示すフローチャートである。FIG. 12 is a flow chart showing an example of the operation procedure of the camera device according to the comparative example.
(実施の形態1に至る経緯)
 まず、比較例に係るカメラ装置の構成例について、図11を参照して説明する。図11は、比較例に係るカメラ装置の構成例を示すブロック図である。図11の比較例に係るカメラ装置10Zの被写体は、後述する実施の形態1に係るカメラ装置10(図2参照)の被写体と同一とし、例えば工場内に配備されたベルトコンベアに沿って移送されるワーク等の対象物である。また、図11のカメラ装置10Zは、AI(Artificial Intelligents)を用いた処理(例えば対象物検知処理)を実行可能な画像処理部16Zを備える。また、図11のカメラ装置10Zは、画像処理部16Zを備える以外は一般的なカメラ構成(例えば、レンズ11Z、イメージセンサ12Z、CPU(Central Processing Unit)13Z、ISP14Z、メモリ15Z、データ出力I/F(Interface)17Z)と同等の構成を有する。
(Background leading up to Embodiment 1)
First, a configuration example of a camera device according to a comparative example will be described with reference to FIG. 11 . FIG. 11 is a block diagram showing a configuration example of a camera device according to a comparative example. The subject of the camera device 10Z according to the comparative example of FIG. 11 is the same as the subject of the camera device 10 (see FIG. 2) according to Embodiment 1, which will be described later. It is an object such as a workpiece that The camera device 10Z of FIG. 11 also includes an image processing unit 16Z capable of executing processing (for example, object detection processing) using AI (Artificial Intelligence). In addition, the camera device 10Z of FIG. 11 has a general camera configuration (for example, a lens 11Z, an image sensor 12Z, a CPU (Central Processing Unit) 13Z, an ISP 14Z, a memory 15Z, a data output I/ It has the same configuration as F (Interface) 17Z).
 続いて、図12を参照して、図11のカメラ装置10Zによる動作手順について例を挙げて説明する。図12は、比較例に係るカメラ装置の動作手順例を示すフローチャートである。図11のカメラ装置10Zのイメージセンサ12Zは、対象物(例えば工場内に配備されたベルトコンベアに沿って移動するワーク)を被写体として、レンズ11Zを透して入射した被写体の光学像を電気信号に変換するための撮像処理を行う(ステップStZ1)。図11のカメラ装置10Zのイメージセンサ12Zは、例えば、FullHD(つまり2MP(メガピクセル)である1920×1080ドット)の解像度を有する撮像データ(例えば、被写体の撮像画像)を生成する。なお、図11のカメラ装置10Zのイメージセンサ12Zは、モノクロ形式あるいはカラー形式のいずれかの形式の撮像データを生成してもよい。図11のカメラ装置10Zは、ステップStZ1で撮像した被写体の撮像データを、イメージセンサ12ZからCPU13に伝送して取り込む(ステップStZ2)。続いて、図11のカメラ装置10Zは、ステップStZ2にて取り込んだ撮像データをCPU13Zからメモリ15Zに転送して保存(格納)する(ステップStZ3)。 Next, with reference to FIG. 12, an example of the operation procedure of the camera device 10Z of FIG. 11 will be described. FIG. 12 is a flow chart showing an example of the operation procedure of the camera device according to the comparative example. The image sensor 12Z of the camera device 10Z in FIG. 11 uses an object (for example, a work moving along a belt conveyor arranged in a factory) as a subject, and an optical image of the subject incident through the lens 11Z is converted into an electrical signal. is performed (step StZ1). The image sensor 12Z of the camera device 10Z in FIG. 11 generates captured data (for example, a captured image of a subject) having a resolution of, for example, FullHD (that is, 1920×1080 dots, which is 2 MP (megapixels)). Note that the image sensor 12Z of the camera device 10Z of FIG. 11 may generate imaging data in either monochrome format or color format. The camera device 10Z of FIG. 11 transmits and captures the imaging data of the subject imaged in step StZ1 from the image sensor 12Z to the CPU 13 (step StZ2). Subsequently, the camera device 10Z of FIG. 11 transfers the imaging data taken in at step StZ2 from the CPU 13Z to the memory 15Z and saves (stores) it (step StZ3).
 図11のカメラ装置10ZのISP14Zは、ステップStZ3にて格納した撮像データをメモリ15Zから読み出し、読み出した撮像データに対してリサイズ処理を行う(ステップStZ4)。リサイズ処理とは、撮像データのサイズを画像処理部16Zにて実行される対象物検索処理(後述参照)に適するサイズに変換するための処理である。 The ISP 14Z of the camera device 10Z in FIG. 11 reads out the imaging data stored in step StZ3 from the memory 15Z, and performs resizing processing on the read imaging data (step StZ4). The resizing process is a process for converting the size of imaged data into a size suitable for object search processing (see below) executed by the image processing unit 16Z.
 なお、図11のカメラ装置10ZのISP14Zは、例えば、モノクロ形式でなくカラー形式の撮像データがイメージセンサ12Zから得られた場合、RGB形式からYUV形式に変換する処理をリサイズ処理と共に行ってもよい。また、図11のカメラ装置10ZのISP14Zは、モノクロ形式の撮像データがイメージセンサ12Zから得られた場合には、上述したRGB形式からYUV形式への変換を行わない。 Note that the ISP 14Z of the camera device 10Z of FIG. 11 may, for example, perform a process of converting from the RGB format to the YUV format together with the resizing process when the imaging data in the color format instead of the monochrome format is obtained from the image sensor 12Z. . Further, the ISP 14Z of the camera device 10Z of FIG. 11 does not convert the RGB format into the YUV format when monochrome image data is obtained from the image sensor 12Z.
 図11のカメラ装置10ZのISP14Zは、ステップStZ4のリサイズ処理後の撮像データを、メモリ15Zに転送して保存(格納)する(ステップStZ5)。つまり、この図11のカメラ装置10Zでは、撮像データのメモリ15Zへの転送が2回行われる。 The ISP 14Z of the camera device 10Z in FIG. 11 transfers and saves (stores) the imaging data after the resizing process in step StZ4 to the memory 15Z (step StZ5). That is, in the camera device 10Z of FIG. 11, transfer of image data to the memory 15Z is performed twice.
 カメラ装置10Zの画像処理部16Zは、ステップStZ5で格納したリサイズ処理後の撮像データをメモリ15Zから読み出し、そのリサイズ処理後の撮像データに対して対象物検知処理(例えばパターンマッチング)を実行する(ステップStZ6)。カメラ装置10Zの画像処理部16Zは、対象物検知処理において、リサイズ処理後の撮像データに出現している対象物の検知結果(例えば対象物の位置を示す座標データ)を算出する(ステップStZ7)。カメラ装置10Zのデータ出力I/F17Zは、ステップStZ7の算出結果(つまり対象物の座標データ)を後段の装置(例えばカメラ装置10Zに接続されたロボットコントローラ)に出力する(ステップStZ8)。 The image processing unit 16Z of the camera device 10Z reads out the image data after the resizing process stored in step StZ5 from the memory 15Z, and executes object detection processing (for example, pattern matching) on the image data after the resizing process ( step StZ6). In the object detection process, the image processing unit 16Z of the camera device 10Z calculates the detection result of the object appearing in the imaging data after the resizing process (for example, coordinate data indicating the position of the object) (step StZ7). . The data output I/F 17Z of the camera device 10Z outputs the calculation result of step StZ7 (that is, the coordinate data of the object) to a subsequent device (for example, the robot controller connected to the camera device 10Z) (step StZ8).
 このように、図11のカメラ装置10Zの動作においては、ステップStZ3およびステップStZ5の計2回にわたって撮像データがメモリ15Zへ転送される。つまり、図11のカメラ装置10Zでは、撮像データがメモリ15Zへ転送される度にデータの伝送遅延が生じる可能性がある。一方、イメージセンサ12Zの最大解像度(例えばFullHD(つまり2MP(メガピクセル)である1920×1080ドット)の解像度)より小さい解像度のデータを画像処理部16Zに入力して処理する場合、図11のカメラ装置10Zでは、画像処理部16Zへの入力に適するサイズへのリサイズ処理の処理負荷が大きくなる。ゆえに、図11のカメラ装置10Zでは、カメラ装置10Zの処理全体として遅延時間が長くなる。 In this way, in the operation of the camera device 10Z of FIG. 11, the imaging data is transferred to the memory 15Z twice, in steps StZ3 and StZ5. In other words, in the camera device 10Z of FIG. 11, there is a possibility that a data transmission delay occurs every time image data is transferred to the memory 15Z. On the other hand, when data with a resolution smaller than the maximum resolution of the image sensor 12Z (for example, the resolution of FullHD (that is, 1920×1080 dots, which is 2 MP (megapixel))) is input to the image processing unit 16Z and processed, the camera of FIG. In the device 10Z, the processing load of resizing to a size suitable for input to the image processing section 16Z increases. Therefore, in the camera device 10Z of FIG. 11, the delay time of the entire processing of the camera device 10Z becomes long.
 このような従来の課題に対して、本開示は、対象物を繰り返し撮像するカメラ装置を用いた処理全体の低遅延化を実現可能なカメラ装置および画像処理方法の例を説明する。 In response to such a conventional problem, the present disclosure describes an example of a camera device and an image processing method that can achieve low delay in the entire processing using a camera device that repeatedly images an object.
 以下、適宜図面を参照しながら、本開示に係るカメラ装置および画像処理方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明あるいは実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments specifically disclosing a camera device and an image processing method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters or redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter.
(実施の形態1)
 図1は、実施の形態1に係るロボット制御システム100のユースケース例を示す図である。図1に示すように、ロボット制御システム100は、カメラ装置10と、ロボットコントローラ30と、ロボット50とを少なくとも含む。カメラ装置10とロボットコントローラ30との間、ロボットコントローラ30とロボット50との間は、それぞれデータあるいは信号の入出力が互いに可能となるように接続されている。
(Embodiment 1)
FIG. 1 is a diagram showing a use case example of the robot control system 100 according to the first embodiment. As shown in FIG. 1, the robot control system 100 includes at least a camera device 10, a robot controller 30, and a robot 50. As shown in FIG. The camera device 10 and the robot controller 30 and the robot controller 30 and the robot 50 are connected so as to enable input/output of data or signals.
 図1に示すユースケースにおいてロボット制御システム100は、例えば工場等の生産施設内に配置されている。ロボット制御システム100は、生産施設内に配備されているベルトコンベアCB上を移送方向DR1に沿って移送される対象物(例えばワーク)の規定位置に部品を実装(搭載)するロボット50を制御する。なお、実施の形態1に係るロボット制御システム100のユースケースは上述した部品搭載に限定されず、ワークへのラベル貼付、ワークへのビス打ち、部品組立、部品加工、溶接、塗装、ボンディング等に使用されてもよい。 In the use case shown in FIG. 1, the robot control system 100 is placed in a production facility such as a factory. The robot control system 100 controls a robot 50 that mounts (mounts) parts at specified positions of an object (for example, a work) that is transferred along the transfer direction DR1 on the belt conveyor CB that is deployed in the production facility. . The use cases of the robot control system 100 according to the first embodiment are not limited to mounting the above-described parts, but can be applied to labeling of workpieces, screwing of workpieces, assembly of parts, machining of parts, welding, painting, bonding, and the like. may be used.
 カメラ装置10(具体的には、カメラ装置10A,10B,…)は、ロボット50(具体的には、ロボット50A,50B,…)のロボットアーム(具体的には、ロボットアームAR1,AR2,…)の先端部に固定されている。ロボットアームの先端部とは、例えばロボットハンドもしくはエンドエフェクタの近傍である。カメラ装置10は、移送方向DR1に対象物を移送するベルトコンベアCB上の対象物(例えばワークWK1,WK2,…)を視野範囲内の被写体として撮像する(ステップT1)。続いて、カメラ装置10は、ステップT1において撮像した撮像画像と予め実行可能に設けられたAI(Artificial Intelligents)とを用いたパターンマッチング処理により、撮像画像に対象物が含まれているか否かを検知する。続いて、カメラ装置10は、対象物の検知結果(例えば撮像画像に含まれる対象物の位置を示す座標)をロボットコントローラ30に送る。カメラ装置10の内部構成の詳細については、図2を参照して後述する。 The camera device 10 (specifically, the camera devices 10A, 10B, . . . ) is a robot arm (specifically, the robot arms AR1, AR2, . ) is fixed to the tip of the The tip of the robot arm is, for example, the robot hand or the vicinity of the end effector. The camera device 10 takes an image of an object (for example, works WK1, WK2, . Subsequently, the camera device 10 performs pattern matching processing using the captured image captured in step T1 and AI (Artificial Intelligence) provided in advance so as to be executable, and determines whether or not the captured image includes the target object. detect. Subsequently, the camera device 10 sends the object detection result (for example, the coordinates indicating the position of the object included in the captured image) to the robot controller 30 . Details of the internal configuration of the camera device 10 will be described later with reference to FIG.
 ロボットコントローラ30は、カメラ装置10からの対象物の検知結果を入力して対象物を認識する(ステップT2)。続いて、ロボットコントローラ30は、対象物が検知された位置に応じたロボット50の動きの指示(例えばロボット50が備えるアクチュエータ(図示略)の駆動あるいはその制御の指示)を生成してロボット50に出力する(ステップT2)。 The robot controller 30 inputs the object detection result from the camera device 10 and recognizes the object (step T2). Subsequently, the robot controller 30 generates a movement instruction for the robot 50 (for example, an instruction for driving or controlling an actuator (not shown) provided in the robot 50) according to the position where the object is detected, and sends the robot 50 output (step T2).
 ロボット50(具体的には、ロボット50A,50B,…)は、ロボットコントローラ30からの指示に基づいて、動きを行う(ステップT3)。ロボットコントローラ30の指示に基づいてロボット50が行う動きとは、例えば、ベルトコンベアCB上を移送される対象物に向けて、ロボットハンドが吸着した部品を対象物の規定位置に搭載するための一連の動作である。なお、上述したように、ロボット50が行う動きの内容はロボット制御システム100のユースケースに応じて適応的に定められ、上述した部品搭載に限定されるものではないことは明らかである。 The robot 50 (specifically, the robots 50A, 50B, . . . ) moves based on instructions from the robot controller 30 (step T3). The movement performed by the robot 50 based on the instructions of the robot controller 30 is, for example, a series of steps for mounting the part picked up by the robot hand at a specified position on the object being transferred on the belt conveyor CB. is the operation of It should be noted that, as described above, the content of the motion performed by the robot 50 is adaptively determined according to the use case of the robot control system 100, and is obviously not limited to the above-described component mounting.
 図2は、実施の形態1に係るロボット制御システム100のシステム構成例を示す図である。図2に示すように、ロボット制御システム100は、カメラ装置10と、ロボットコントローラ30と、ロボット50A,50Bとを少なくとも含む。なお、ロボット50A,50Bは同一の構成としているが、異なる構成であってもよい。また、説明の都合上、ロボットは2台のみ図示されているが、台数は1台でもよいし、3台以上でも構わない。 FIG. 2 is a diagram showing a system configuration example of the robot control system 100 according to the first embodiment. As shown in FIG. 2, the robot control system 100 includes at least a camera device 10, a robot controller 30, and robots 50A and 50B. Although the robots 50A and 50B have the same configuration, they may have different configurations. For convenience of explanation, only two robots are shown, but the number of robots may be one or three or more.
 カメラ装置10は、レンズ11、イメージセンサ12、CPU(Central Processing Unit)13、ISP(Image Signal Processor)14、メモリ15、画像処理部16およびデータ出力I/F17のそれぞれが実装された基板を含む。この基板は、カメラ装置10の筐体(図示略)に配置される。 The camera device 10 includes a substrate on which a lens 11, an image sensor 12, a CPU (Central Processing Unit) 13, an ISP (Image Signal Processor) 14, a memory 15, an image processing section 16, and a data output I/F 17 are mounted. . This substrate is arranged in a housing (not shown) of the camera device 10 .
 レンズ11(撮像部の一例)は、例えばフォーカスレンズおよびズームレンズを含む。レンズ11には、被写体(例えばワークWK1,WK2,…等の対象物)により反射された光である入射光が入射する。レンズ11に入射した入射光は、レンズ11とイメージセンサ12との間に可視光カットフィルタおよびIRカットフィルタが配置されている場合、いずれか1つのフィルタを介してイメージセンサ12の受光面(撮像面)に被写体の光学像を結像する。レンズ11として、カメラ装置10の設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The lens 11 (an example of an imaging unit) includes, for example, a focus lens and a zoom lens. Incident light, which is light reflected by a subject (for example, an object such as works WK1, WK2, . . . ), enters the lens 11 . When a visible light cut filter and an IR cut filter are arranged between the lens 11 and the image sensor 12, the incident light incident on the lens 11 passes through either one of the filters and reaches the light receiving surface (image pickup surface) of the image sensor 12. An optical image of the subject is formed on the surface). As the lens 11, lenses with various focal lengths or shooting ranges can be used depending on the installation location of the camera device 10, the shooting application, or the like.
 なお、カメラ装置10は、レンズ11の駆動を制御するレンズ駆動部(図示略)を備えてもよい。また、CPU13あるいはISP14は、レンズ11の駆動に関する内部パラメータ(例えばフォーカスレンズの位置、ズーム倍率に対応するズームレンズの位置)を調整(変更)してレンズ駆動部(図示略)を介してレンズ11を駆動させてもよい。また、レンズ11は固定配置されてもよい。 Note that the camera device 10 may include a lens driving section (not shown) that controls driving of the lens 11 . Further, the CPU 13 or the ISP 14 adjusts (changes) internal parameters related to the driving of the lens 11 (for example, the position of the focus lens, the position of the zoom lens corresponding to the zoom magnification), and controls the lens 11 via a lens driving unit (not shown). may be driven. Alternatively, the lens 11 may be fixedly arranged.
 可視光カットフィルタ(撮像部の一例)は、レンズ11を透過した入射光(つまり被写体により反射された光)のうち可視光(例えば400~760[nm]の波長を有する光)を遮断する特性を有する。可視光カットフィルタは、レンズ11を透過した入射光のうち可視光を遮断する。カメラ装置10は、可視光カットフィルタの駆動を制御するフィルタ駆動部(図示略)を備えてもよい。フィルタ駆動部を備える場合、可視光カットフィルタは、CPU13あるいはISP14からの制御信号に基づいて、所定期間(例えば夜間)にレンズ11とイメージセンサ12との間に位置するようフィルタ駆動部(図示略)を介して配置される。 A visible light cut filter (an example of an imaging unit) has a characteristic of blocking visible light (for example, light having a wavelength of 400 to 760 [nm]) among incident light transmitted through the lens 11 (that is, light reflected by an object). have The visible light cut filter blocks visible light out of the incident light that has passed through the lens 11 . The camera device 10 may include a filter driving section (not shown) that controls driving of the visible light cut filter. When a filter drive unit is provided, the visible light cut filter is driven by a filter drive unit (not shown) so that it is positioned between the lens 11 and the image sensor 12 for a predetermined period (for example, at night) based on a control signal from the CPU 13 or ISP 14. ).
 IRカットフィルタ(撮像部の一例)は、可視光(例えば400~760[nm]の波長を有する光)を通過させ、かつ近赤外光(例えば780[nm]以上の波長を有する光)を遮断する特性を有する。IRカットフィルタは、レンズ11を透過した入射光のうち近赤外光を遮断して可視光を通過させる。カメラ装置10は、IRカットフィルタの駆動を制御するフィルタ駆動部(図示略)を備えてもよい。フィルタ駆動部を備える場合、IRカットフィルタは、CPU13あるいはISP14からの制御信号に基づいて、所定期間(例えば昼間)にレンズ11とイメージセンサ12との間に位置するようフィルタ駆動部(図示略)を介して配置される。 An IR cut filter (an example of an imaging unit) passes visible light (for example, light having a wavelength of 400 to 760 [nm]) and near-infrared light (for example, light having a wavelength of 780 [nm] or more). It has blocking properties. The IR cut filter blocks near-infrared light and allows visible light to pass through the incident light that has passed through the lens 11 . The camera device 10 may include a filter driving section (not shown) that controls driving of the IR cut filter. When a filter driving section is provided, the IR cut filter is positioned between the lens 11 and the image sensor 12 for a predetermined period (for example, daytime) based on a control signal from the CPU 13 or ISP 14. A filter driving section (not shown) is provided. placed through
 イメージセンサ12(撮像部の一例)は、可視光あるいは近赤外光の撮像に適した複数の画素が配列されたCCD(Charge Coupled Device)センサあるいはCMOS(Complementary Metal Oxide Semiconductor)センサと、露光制御回路(図示略)と、信号処理回路(図示略)とを含む。イメージセンサ12は、複数の画素により構成される受光面(撮像面)に受けた光を電気信号に変換する光電変換を所定間隔ごとに行う。光電変換の所定間隔は、いわゆるフレームレート(fps:frame per second)に応じて定まる。例えば、フレームレートが120[fps]である場合、所定間隔は1/120[秒]となる。これにより、イメージセンサ12は、被写体(例えばワークWK1,WK2,…等の対象物)により反射された光に応じて、赤色成分信号(R信号)、緑色成分信号(G信号)、青色成分信号(B信号)のそれぞれを画素ごとに時間的に連続して電気信号として取得する。イメージセンサ12の信号処理回路(図示略)は、電気信号(アナログ信号)をデジタル形式の撮像データに変換する。イメージセンサ12とメモリ15との間には直接転送用のデータ伝送バスが設けられている。イメージセンサ12は、データ伝送バスを介して、デジタル形式の撮像データをフレームレートに応じた所定間隔(上述参照)ごとにメモリ15に転送する。メモリ15は、イメージセンサ12から受信したデジタル形式の撮像データを保存する。なお、イメージセンサ12は、デジタル形式の撮像データをフレームレートに応じた所定間隔(上述参照)ごとにCPU13に送ってもよい。 The image sensor 12 (an example of an imaging unit) includes a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor in which a plurality of pixels suitable for imaging visible light or near-infrared light are arranged, and exposure control. It includes a circuit (not shown) and a signal processing circuit (not shown). The image sensor 12 performs photoelectric conversion for converting light received by a light-receiving surface (imaging surface) composed of a plurality of pixels into an electric signal at predetermined intervals. The predetermined interval of photoelectric conversion is determined according to the so-called frame rate (fps: frame per second). For example, when the frame rate is 120 [fps], the predetermined interval is 1/120 [second]. As a result, the image sensor 12 outputs a red component signal (R signal), a green component signal (G signal), and a blue component signal according to the light reflected by the subject (objects such as works WK1, WK2, . . . ). (B signal) is obtained as an electric signal continuously in time for each pixel. A signal processing circuit (not shown) of the image sensor 12 converts the electrical signal (analog signal) into digital imaging data. A data transmission bus for direct transfer is provided between the image sensor 12 and the memory 15 . The image sensor 12 transfers the digital format imaging data to the memory 15 via the data transmission bus at predetermined intervals (see above) according to the frame rate. The memory 15 stores the digital format imaging data received from the image sensor 12 . Note that the image sensor 12 may send the digital format imaging data to the CPU 13 at predetermined intervals (see above) according to the frame rate.
 ここで、図3を参照して、カメラ装置10の動作モードについて説明する。図3は、実施の形態1に係るカメラ装置10の動作モードの一例を示す図である。図3に示す動作モードテーブルTBL1は、フレームレート、出力解像度、処理遅延時間の各項目を組み合わせたレコードを持つカメラ装置10の動作モードを示している。動作モードテーブルTBL1のセンサフレームレートとは、イメージセンサ12のフレームレートに相当する。動作モードテーブルTBL1のセンサ出力解像度とは、イメージセンサ12の出力解像度(後述する所定解像度)に相当する。動作モードテーブルTBL1の処置遅延時間とは、カメラ装置10の処理全体として許容される処理遅延時間に相当する。カメラ装置10の動作モードは、処理遅延時間に応じて、イメージセンサ12のフレームレートおよび出力解像度(後述する所定解像度)をユーザが選択して設定することができる。また、CPU13あるいはISP14は、カメラ装置10の動作中に、イベントの検知あるいは外部信号の入力に基づいて、カメラ装置10の動作モードを変更するための信号を生成してイメージセンサ12に送ってよい。この場合、イメージセンサ12は、CPU13あるいはISP14からの信号に基づいて、カメラ装置10の動作モード(具体的には、フレームレート、出力解像度)を変更する。これにより、カメラ装置10は、必要なタイミングで動作モードを動的かつ任意に変更可能となる。図3に示す処理遅延時間は、一例であり、使用する画像処理部16の性能、フレームレート、解像度などにより多少前後してもよい。 Here, operation modes of the camera device 10 will be described with reference to FIG. FIG. 3 is a diagram showing an example of operation modes of the camera device 10 according to the first embodiment. The operation mode table TBL1 shown in FIG. 3 indicates the operation mode of the camera device 10 having a record combining each item of frame rate, output resolution, and processing delay time. The sensor frame rate of the operation mode table TBL1 corresponds to the frame rate of the image sensor 12. FIG. The sensor output resolution of the operation mode table TBL1 corresponds to the output resolution of the image sensor 12 (predetermined resolution described later). The treatment delay time in the operation mode table TBL1 corresponds to a processing delay time allowed for the processing of the camera device 10 as a whole. The operation mode of the camera device 10 can be set by the user by selecting the frame rate and output resolution (predetermined resolution described later) of the image sensor 12 according to the processing delay time. Further, the CPU 13 or the ISP 14 may generate a signal for changing the operation mode of the camera device 10 and send it to the image sensor 12 based on detection of an event or input of an external signal while the camera device 10 is operating. . In this case, the image sensor 12 changes the operation mode (specifically, frame rate and output resolution) of the camera device 10 based on the signal from the CPU 13 or ISP 14 . Thereby, the camera device 10 can dynamically and arbitrarily change the operation mode at necessary timing. The processing delay time shown in FIG. 3 is an example, and may vary slightly depending on the performance, frame rate, resolution, etc. of the image processing unit 16 used.
 動作モード1は、フレームレートが480[fps]、出力解像度がVGA(つまり、640×480ドット)、処理遅延時間が10[msec]の組み合わせにより構成され、カメラ装置10のフレームレートおよび出力解像度が動作モード1に対応する各値に設定される。これにより、カメラ装置10は、カメラ装置10内で実行される処理全体(具体的には、ロボットコントローラ30に対象物の検知結果を送るために、イメージセンサ12により撮像された撮像画像のメモリ15へのデータ転送、必要に応じたリサイズ処理、画像処理部16による対象物の検知処理、ロボットコントローラ30への対象物の検知結果の送信処理)の処理時間を動作モード1の処理遅延時間内に抑えることができる。したがって、動作モード1では、カメラ装置10内で処理の輻輳が生じない程度に処理の低遅延化を図ることができ、対象物の検知結果に基づく指示をロボットコントローラ30に対して迅速に促すことができる。 Operation mode 1 is a combination of a frame rate of 480 [fps], an output resolution of VGA (that is, 640×480 dots), and a processing delay time of 10 [msec]. Each value corresponding to operation mode 1 is set. Thereby, the camera device 10 can store the entire processing executed in the camera device 10 (specifically, the memory 15 of the captured image captured by the image sensor 12 in order to send the detection result of the target object to the robot controller 30). data transfer, resizing processing as necessary, object detection processing by the image processing unit 16, and transmission processing of the object detection result to the robot controller 30) within the processing delay time of operation mode 1. can be suppressed. Therefore, in the operation mode 1, processing delay can be reduced to the extent that processing congestion does not occur in the camera device 10, and an instruction based on the detection result of the object can be promptly prompted to the robot controller 30. can be done.
 動作モード2は、フレームレートが240[fps]、出力解像度が1.3MP(つまり、1280×960ドット)、処理遅延時間が20[msec]の組み合わせにより構成され、カメラ装置10のフレームレートおよび出力解像度が動作モード2に対応する各値に設定される。これにより、カメラ装置10は、カメラ装置10内で実行される処理全体(具体的には、ロボットコントローラ30に対象物の検知結果を送るために、イメージセンサ12により撮像された撮像画像のメモリ15へのデータ転送、必要に応じたリサイズ処理、画像処理部16による対象物の検知処理、ロボットコントローラ30への対象物の検知結果の送信処理)の処理時間を動作モード2の処理遅延時間内に抑えることができる。したがって、動作モード2では、カメラ装置10内で処理の輻輳が生じない程度に処理の低遅延化を図ることができ、対象物の検知結果に基づく指示をロボットコントローラ30に対して迅速に促すことができる。 Operation mode 2 is configured by combining a frame rate of 240 [fps], an output resolution of 1.3 MP (that is, 1280×960 dots), and a processing delay time of 20 [msec]. The resolution is set to each value corresponding to operation mode 2. Thereby, the camera device 10 can store the entire processing executed in the camera device 10 (specifically, the memory 15 of the captured image captured by the image sensor 12 in order to send the detection result of the target object to the robot controller 30). data transfer, resizing processing if necessary, object detection processing by the image processing unit 16, and transmission processing of the object detection result to the robot controller 30) within the processing delay time of operation mode 2. can be suppressed. Therefore, in the operation mode 2, processing delay can be reduced to the extent that processing congestion does not occur in the camera device 10, and an instruction based on the detection result of the object can be quickly prompted to the robot controller 30. can be done.
 動作モード3では、フレームレートが120[fps]、出力解像度がFullHD(つまり、1920×1080ドット)、処理遅延時間が40[msec]の組み合わせにより構成され、カメラ装置10のフレームレートおよび出力解像度が動作モード3に対応する各値に設定される(図6あるいは図8参照)。これにより、カメラ装置10は、カメラ装置10内で実行される処理全体(具体的には、ロボットコントローラ30に対象物の検知結果を送るために、イメージセンサ12により撮像された撮像画像のメモリ15へのデータ転送、必要に応じたリサイズ処理、画像処理部16による対象物の検知処理、ロボットコントローラ30への対象物の検知結果の送信処理)の処理時間を動作モード3の処理許容遅延時間内に抑えることができる。したがって、動作モード3では、カメラ装置10内で処理の輻輳が生じない程度に処理の低遅延化を図ることができ、対象物の検知結果に基づく指示をロボットコントローラ30に対して迅速に促すことができる。 In operation mode 3, the frame rate is 120 [fps], the output resolution is FullHD (that is, 1920×1080 dots), and the processing delay time is 40 [msec]. Each value corresponding to operation mode 3 is set (see FIG. 6 or FIG. 8). Thereby, the camera device 10 can store the entire processing executed in the camera device 10 (specifically, the memory 15 of the captured image captured by the image sensor 12 in order to send the detection result of the target object to the robot controller 30). data transfer, resizing processing if necessary, object detection processing by the image processing unit 16, transmission processing of the object detection result to the robot controller 30) is within the allowable processing delay time of operation mode 3. can be reduced to Therefore, in the operation mode 3, processing delay can be reduced to the extent that processing congestion does not occur in the camera device 10, and an instruction based on the detection result of the object can be quickly urged to the robot controller 30. can be done.
 また、イメージセンサ12は、CPU13あるいはISP14からの露光制御信号に基づいて、カメラ装置10の露光条件に関する内部パラメータ(例えば露光時間、ゲイン、フレームレート)を露光制御回路により調整(変更)する。これにより、カメラ装置10では、周囲の環境に応じた露光条件の変更が可能となり、良好な画質の撮像データが得られる。 Also, the image sensor 12 adjusts (changes) internal parameters (for example, exposure time, gain, frame rate) relating to exposure conditions of the camera device 10 by means of an exposure control circuit based on an exposure control signal from the CPU 13 or ISP 14 . As a result, in the camera device 10, it is possible to change the exposure conditions according to the surrounding environment, and image data with good image quality can be obtained.
 また、イメージセンサ12は、所定解像度(例えば、FullHDである2.0MP(メガピクセル)に対応する1920×1080ドット)の対象物の撮像データを撮像可能であり、クロッピングあるいはビニングの各処理を行う。クロッピングとは、イメージセンサ12により、撮像データの画像領域全体のうち一部となる特定範囲(例えば明るい中央部分)の画像領域を切り出す処理である。したがって、クロッピングされた画像は、クロッピングされる前の撮像データに比べてサイズ(言い換えると、解像度)が減少した画像となる。ビニングとは、イメージセンサ12により、撮像データを構成する複数の画素(例えば2×2個、4×4個、…等)の画素成分(例えば画素値)を擬似的に1つの画素に集約(結合)して扱う処理である。したがって、ビニングされた画像は、クロッピングされた画像と同様に、ビニングされる前の撮像データに比べて画素数(言い換えると、解像度)が減少した画像となる。クロッピングあるいはビニングの各処理を行うことにより、イメージセンサ12は、所定解像度より小さい解像度(例えば、動作モード1に対応するVGA(Video Graphics Array)である640×480ドット、あるいは、動作モード2に対応する1.3MPである1280×960ドット)の撮像データに変換して出力する。なお、イメージセンサ12の所定解像度はFullHD(1920×1080ドット)に限定されず(図3参照)、1.3MP(1280×960ドット)でもよいし、VGA(640×480ドット)でもよい(図4参照)。 In addition, the image sensor 12 can capture image data of an object with a predetermined resolution (for example, 1920×1080 dots corresponding to 2.0 MP (megapixels) of FullHD), and performs cropping or binning processing. . Cropping is a process of cropping an image area of a specific range (for example, a bright central portion), which is part of the entire image area of captured data, by the image sensor 12 . Therefore, the cropped image is an image with a reduced size (in other words, resolution) compared to the captured data before cropping. Binning is a pseudo aggregation of pixel components (e.g., pixel values) of a plurality of pixels (e.g., 2×2, 4×4, . This is a process to be handled by combining). Therefore, the binned image, like the cropped image, is an image with a reduced number of pixels (in other words, resolution) compared to the imaging data before binning. By performing each processing of cropping or binning, the image sensor 12 has a resolution smaller than a predetermined resolution (for example, VGA (Video Graphics Array) corresponding to operation mode 1, 640×480 dots, or operation mode 2). 1280×960 dots, which is 1.3 MP) and output. Note that the predetermined resolution of the image sensor 12 is not limited to FullHD (1920×1080 dots) (see FIG. 3), and may be 1.3MP (1280×960 dots) or VGA (640×480 dots) (see FIG. 3). 4).
 CPU13は、カメラ装置10の全体的な動作を司るコントローラとして機能するプロセッサである。CPU13は、カメラ装置10の各部の動作を統括するための制御処理、カメラ装置10の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。CPU13は、メモリ15に記憶されたプログラムおよび制御用データに従って動作する。CPU13は、動作時にメモリ15を使用し、CPU13が生成または取得したデータもしくは情報をメモリ15に転送して一時的に保存する。また、CPU13は、イメージセンサ12からの撮像データをメモリ15に転送して一時的に保存し、および/またはISP14に送る。 The CPU 13 is a processor that functions as a controller that controls the overall operation of the camera device 10 . The CPU 13 performs control processing for supervising the operation of each unit of the camera device 10, data input/output processing with each unit of the camera device 10, data arithmetic processing, and data storage processing. The CPU 13 operates according to programs and control data stored in the memory 15 . The CPU 13 uses the memory 15 during operation, and transfers data or information generated or acquired by the CPU 13 to the memory 15 for temporary storage. Also, the CPU 13 transfers the imaging data from the image sensor 12 to the memory 15 for temporary storage and/or sends to the ISP 14 .
 また、CPU13は、タイマ(図示略)あるいは照度センサ(図示略)を有する。CPU13は、タイマあるいは照度センサの出力に基づいて、レンズ11とイメージセンサ12との間に配置させるべきフィルタを可視光カットフィルタあるいはIRカットフィルタのいずれにするかを指示するための制御信号を生成してフィルタ駆動部(図示略)に送る。 The CPU 13 also has a timer (not shown) or an illuminance sensor (not shown). The CPU 13 generates a control signal for instructing whether the filter to be placed between the lens 11 and the image sensor 12 is a visible light cut filter or an IR cut filter, based on the output of the timer or the illuminance sensor. and sent to a filter driving section (not shown).
 ISP14は、カメラ装置10内で行われる各種の画像処理を司るプロセッサである。ISP14は、メモリ15からイメージセンサ12からの撮像データを読み出し、読み出した撮像データを用いて画像処理を行う。さらに、ISP14は、メモリ15から読み出した撮像データのサイズを画像処理部16による対象物の検知処理(例えばパターンマッチング)に適するサイズに変換するリサイズ処理を行う。ISP14は、動作時にメモリ15を使用し、ISP14が生成または取得したデータもしくは情報をメモリ15に転送して一時的に保存する。 The ISP 14 is a processor that controls various image processing performed within the camera device 10 . The ISP 14 reads the imaging data from the image sensor 12 from the memory 15 and performs image processing using the read imaging data. Further, the ISP 14 performs resizing processing for converting the size of the imaging data read from the memory 15 into a size suitable for object detection processing (for example, pattern matching) by the image processing unit 16 . ISP 14 uses memory 15 during operation and transfers data or information generated or obtained by ISP 14 to memory 15 for temporary storage.
 メモリ15は、RAM(Random Access Memory)とROM(Read Only Memory)とを少なくとも含む。メモリ15は、カメラ装置10の動作の実行に必要なプログラム、更には、カメラ装置10の各部の動作中に生成されたデータもしくは情報を一時的に保持する。RAMは、例えば、カメラ装置10の各部の動作時に使用されるワークメモリである。ROMは、例えば、カメラ装置10の各部を制御するためのプログラムおよび制御用データを予め記憶して保持する。 The memory 15 includes at least RAM (Random Access Memory) and ROM (Read Only Memory). The memory 15 temporarily holds a program necessary for executing the operation of the camera device 10 and data or information generated during the operation of each unit of the camera device 10 . The RAM is, for example, a work memory that is used when each part of the camera device 10 operates. The ROM pre-stores and retains, for example, a program and control data for controlling each unit of the camera device 10 .
 また、メモリ15は、図3に示す動作モードテーブルTBL1のデータを保存してもよい。さらに、CPU13は、例えばユーザの外部端末(図示略)を介した設定操作により、メモリ15に保存された動作モードテーブルTBL1のうちいずれかの動作モードを設定してもよい。これにより、カメラ装置10は、動作モードテーブルTBL1に規定されたいずれかの動作モードをカメラ装置10のユースケースに応じて柔軟に設定できる。 Also, the memory 15 may store the data of the operation mode table TBL1 shown in FIG. Furthermore, the CPU 13 may set one of the operation modes in the operation mode table TBL1 stored in the memory 15 by a user's setting operation via an external terminal (not shown), for example. Thereby, the camera device 10 can flexibly set one of the operation modes defined in the operation mode table TBL1 according to the use case of the camera device 10. FIG.
 画像処理部16(AI処理部の一例)は、例えばGPU(Graphics Processing Unit)およびメモリを用いて構成されている。なお、GPUの代わりあるいはGPUとともにDSP(Digital Signal Processor)が使用されても構わない。画像処理部16は、例えばAI(人工知能)を用いて、イメージセンサ12が撮像した被写体(例えばワークWK1,WK2,…等の対象物)の撮像データから、対象物の位置を検知するための検知処理(例えばパターンマッチング)を行う。なお、画像処理部16は、AIを用いず、既存の画像処理として知られたパターンマッチング処理を用いて、上述した検知処理を行ってもよい。メモリ15と画像処理部16との間には、直接転送用のデータ伝送バスP1が設けられている。画像処理部16は、データ伝送バスP1を介して対象物の検知処理に用いる撮像データをメモリ15から取得し、撮像データに含まれる対象物の検知処理を実行する。画像処理部16を構成するGPUが、例えば4Topsの処理性能を有している場合、画像処理部16は、対象物の検知処理を1~4[ミリ秒]のオーダで実行可能である。 The image processing unit 16 (an example of the AI processing unit) is configured using, for example, a GPU (Graphics Processing Unit) and memory. A DSP (Digital Signal Processor) may be used instead of or together with the GPU. The image processing unit 16 uses AI (artificial intelligence), for example, to detect the position of the object from the imaging data of the object (for example, objects such as works WK1, WK2, etc.) imaged by the image sensor 12. Perform detection processing (for example, pattern matching). Note that the image processing unit 16 may perform the above-described detection processing using pattern matching processing, which is known as existing image processing, without using AI. A data transmission bus P1 for direct transfer is provided between the memory 15 and the image processing section 16 . The image processing unit 16 acquires imaging data used for object detection processing from the memory 15 via the data transmission bus P1, and executes object detection processing included in the imaging data. If the GPU that constitutes the image processing unit 16 has a processing performance of 4 Tops, for example, the image processing unit 16 can execute object detection processing in the order of 1 to 4 milliseconds.
 画像処理部16は、例えば既に機械学習等により生成された学習済みモデル(図示略)を実行可能である。ここで、学習済みモデルとは、複数枚の画像データに基づく機械学習等により、画像処理部16が検知対象とする検知対象物を定めたデータセットに相当する。画像処理部16が検知対象とする検知対象物とは、例えば、ロボット制御システム100が設置される生産工場で用いられている各種の部品などである。 The image processing unit 16 can execute a learned model (not shown) that has already been generated by machine learning, for example. Here, the trained model corresponds to a data set in which a detection target object to be detected by the image processing unit 16 is determined by machine learning based on a plurality of image data. Objects to be detected by the image processing unit 16 are, for example, various parts used in a production factory where the robot control system 100 is installed.
 画像処理部16は、入力された規定のサイズを有する撮像データと上述した学習済みモデルとを用いて、撮像データに含まれる検知対象物の検知処理を実行する。画像処理部16とデータ出力I/F部との間には直接転送用のデータ伝送バスが設けられている。画像処理部16は、そのデータ伝送バスを介してデータ出力I/F17に対して、対象物の検知処理により得られた検知結果のデータを送る。 The image processing unit 16 uses the input imaging data having a prescribed size and the above-described learned model to execute detection processing of the detection target included in the imaging data. A data transmission bus for direct transfer is provided between the image processing section 16 and the data output I/F section. The image processing unit 16 sends the data of the detection result obtained by the object detection process to the data output I/F 17 via the data transmission bus.
 データ出力I/F17(出力インターフェースの一例)は、カメラ装置10の後段に接続されるロボットコントローラ30との間のデータあるいは信号の入出力が可能な回路を用いて構成されている。データ出力I/F17は、画像処理部16からの対象物の検知結果のデータを、所定のデータ伝送方式(例えばGigE)にしたがってロボットコントローラ30に出力する。GigE(Gigabit Ethernet(登録商標))は、最大で120MB(メガバイト)/秒のデータ転送速度を実現可能なインターフェース規格である。なお、データ出力I/F17とロボットコントローラ30との間の有線接続によるデータ伝送方式はGigEに限定されなくてもよい。 The data output I/F 17 (an example of an output interface) is configured using a circuit capable of inputting/outputting data or signals to/from the robot controller 30 connected to the rear stage of the camera device 10 . The data output I/F 17 outputs the object detection result data from the image processing unit 16 to the robot controller 30 according to a predetermined data transmission method (for example, GigE). GigE (Gigabit Ethernet (registered trademark)) is an interface standard capable of achieving a maximum data transfer rate of 120 MB (megabytes)/sec. The data transmission method by wire connection between the data output I/F 17 and the robot controller 30 need not be limited to GigE.
 ロボットコントローラ30は、データ出力I/F17から所定のデータ伝送方式(例えばGigE)で出力された対象物の検知結果のデータを入力して対象物を認識するための処理(対象物認識処理)を実行する。ロボットコントローラ30は、対象物認識処理の処理結果に基づいて、対象物の検知位置に応じた適切な動きの指示(例えばロボット50が備えるアクチュエータ(図示略)の駆動あるいはその制御の指示)を生成してロボット50(具体的には、ロボット50A,50B,…)に出力する。 The robot controller 30 inputs the data of the object detection result output from the data output I/F 17 by a predetermined data transmission method (for example, GigE), and performs processing (object recognition processing) for recognizing the object. Execute. The robot controller 30 generates an appropriate movement instruction (for example, an instruction to drive or control an actuator (not shown) provided in the robot 50) according to the detected position of the object based on the processing result of the object recognition process. and output to the robot 50 (specifically, the robots 50A, 50B, . . . ).
 ロボット50(具体的には、ロボット50A,50B,…)は、ロボットドライバ(具体的には、ロボットドライバ51A,51B,…)と、ロボットモータ(具体的には、ロボットモータ52A,52B,…)とを少なくとも含む。図2では、説明を簡易化するためにロボット制御システム100が含むロボット50は2台のみ図示しているが、上述したように1台でも3台以上でも構わない。 The robot 50 (more specifically, robots 50A, 50B, . . . ) includes robot drivers (specifically, robot drivers 51A, 51B, . . . ) and robot motors (specifically, robot motors 52A, 52B, . ) and at least. Although only two robots 50 included in the robot control system 100 are shown in FIG. 2 to simplify the explanation, one robot or three or more robots may be used as described above.
 ロボットドライバ51Aは、ロボットコントローラ30からの指示に基づく動作をロボット50Aに実行させるための駆動力をロボットモータ52Aに発生させる制御を行う。また、ロボットドライバ51Bは、ロボットコントローラ30からの指示に基づく動作をロボット50Bに実行させるための駆動力をロボットモータ52Bに発生させる制御を行う。 The robot driver 51A controls the robot motor 52A to generate a driving force for causing the robot 50A to perform an operation based on instructions from the robot controller 30. Further, the robot driver 51B controls the robot motor 52B to generate a driving force for causing the robot 50B to perform an operation based on an instruction from the robot controller 30. FIG.
 ロボットモータ52Aは、ロボットドライバ51Aの制御に基づいて、ベルトコンベアCB上を移送される対象物に向けて、ロボットコントローラ30からの指示に対応する動き(例えばロボットハンドに吸着された部品を対象物の規定位置に搭載する動き)をロボット50Aの先端部(例えばロボットハンド、あるいは、エンドエフェクタ)に実行させるための駆動力を制御する。ロボットモータ52Bは、ロボットドライバ51Bの制御に基づいて、ベルトコンベアCB上を移送される対象物に向けて、ロボットコントローラ30からの指示に対応する動き(例えばロボットハンドに吸着された部品を対象物の規定位置に搭載する動き)をロボット50Bの先端部(例えばロボットハンド、あるいは、エンドエフェクタ)に実行させるための駆動力を制御する。 Based on the control of the robot driver 51A, the robot motor 52A moves toward the object to be transferred on the belt conveyor CB in accordance with the instructions from the robot controller 30 (for example, moving the part sucked by the robot hand to the object). ) to the tip of the robot 50A (for example, a robot hand or an end effector). Based on the control of the robot driver 51B, the robot motor 52B moves toward the object to be transferred on the belt conveyor CB in accordance with the instructions from the robot controller 30 (for example, moving the part sucked by the robot hand to the object). ) to the tip of the robot 50B (for example, a robot hand or an end effector).
 なお、図2では詳細な構成例の図示を省略しているが、ロボット50(具体的には、ロボット50A,50B,…)は、ロボットドライバおよびロボットモータ以外に、ロボットの基台(図示略)とロボットアームAR1,AR2とをさらに備える。ロボットアームAR1,AR2のそれぞれは、例えば6つの関節(具体的には、3つの曲げ関節および3つのねじり関節)で順次接続される。ロボットアームAR1,AR2のそれぞれの先端部には、ワークWK1,WK2のそれぞれの規定位置に搭載するべき部品を吸着保持したりその部品を搭載したりするロボットハンドあるいはエンドエフェクタが配置される。上述したように、カメラ装置10A,10BのそれぞれはロボットアームAR1,AR2のそれぞれの先端部(例えばロボットハンドあるいはエンドエフェクタ)に固定される。 Although illustration of a detailed configuration example is omitted in FIG. 2, the robot 50 (specifically, the robots 50A, 50B, . . . ) includes a robot base (not shown) in addition to the robot driver and robot motors. ) and robot arms AR1 and AR2. Each of the robot arms AR1 and AR2 is sequentially connected by, for example, six joints (specifically, three bending joints and three torsion joints). A robot hand or an end effector is arranged at the tip of each of the robot arms AR1 and AR2 to attract and hold a component to be mounted at a specified position on each of the works WK1 and WK2 and to mount the component. As described above, each of the camera devices 10A and 10B is fixed to each tip of the robot arms AR1 and AR2 (for example, a robot hand or an end effector).
(第1動作例)
 次に、実施の形態1に係るカメラ装置10の第1動作例について、図4および図5を参照して説明する。図4は、実施の形態1に係るカメラ装置10の第1動作例におけるデータフローを時系列に示す図である。図5は、図4の第1動作例に係る動作手順例を示すフローチャートである。
(First operation example)
Next, a first operation example of the camera device 10 according to Embodiment 1 will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 is a diagram showing the data flow in time series in the first operation example of the camera device 10 according to the first embodiment. FIG. 5 is a flow chart showing an operation procedure example according to the first operation example of FIG.
 図4の例はカメラ装置10の動作モードが動作モードテーブルTBL1の動作モード1(図3参照)に対応している。図4に示すように、カメラ装置10のイメージセンサ12は、所定解像度(例えば最大解像度がFullHD)を有する撮像データを撮像する(図5のステップSt1参照)。なお、このステップSt1の処理では、モノクロ形式の撮像データ、あるいは、カラー形式(例えばRGB形式)の撮像データのいずれが撮像により得られてもよい。イメージセンサ12は、ステップSt1で撮像された撮像データを対象として、画像処理部16の入力に適するサイズにクロッピングあるいはビニングを行う。続いて、イメージセンサ12は、クロッピングあるいはビニングを行った撮像データを480[fps](言い換えると、2.1[ミリ秒])ごとに画像処理ボードB2に出力する(図5のステップSt2参照)。ここで、画像処理ボードB2とは、CPU13、ISP14、メモリ15、画像処理部16およびデータ出力I/F17のそれぞれが配置される実装基板である。つまり、画像処理ボードB2のメモリ15には、イメージセンサ12から2.1[ミリ秒]ごとに、VGAの解像度の撮像データ(例えばVGA相当の輝度レベル、あるいは、RGB形式により構成されるデータ)が、ルートRT1a(つまりデータ伝送バス)を介して入力される(ステップX15、図5のステップSt3参照)。 In the example of FIG. 4, the operation mode of the camera device 10 corresponds to operation mode 1 (see FIG. 3) of the operation mode table TBL1. As shown in FIG. 4, the image sensor 12 of the camera device 10 captures image data having a predetermined resolution (for example, the maximum resolution is FullHD) (see step St1 in FIG. 5). Note that in the process of step St1, either monochrome image data or color image data (for example, RGB format) may be obtained by imaging. The image sensor 12 performs cropping or binning on the imaged data imaged in step St1 to a size suitable for input to the image processing unit 16 . Subsequently, the image sensor 12 outputs the cropped or binned imaging data to the image processing board B2 every 480 [fps] (in other words, 2.1 [milliseconds]) (see step St2 in FIG. 5). . Here, the image processing board B2 is a mounting board on which the CPU 13, ISP 14, memory 15, image processing section 16 and data output I/F 17 are arranged. That is, in the memory 15 of the image processing board B2, image data of VGA resolution (for example, luminance level equivalent to VGA, or data configured in RGB format) is received from the image sensor 12 every 2.1 [milliseconds]. is input via the route RT1a (that is, the data transmission bus) (step X15, see step St3 in FIG. 5).
 メモリ15は、ステップX15にてメモリ15に入力された撮像データを一度保存する。メモリ15は、ステップX15で受け取った撮像データを、ルートRT1b(つまりデータ伝送バスP1)を介して画像処理部16に入力する(ステップX16)。このステップX16の処理は、1fps以内(480fpsであれば、2.1ミリ秒以下)で処理される。画像処理部16は、ステップX16で入力された撮像データを用いて、撮像データに含まれる対象物の検知処理を実行する(図5のステップSt4参照)。画像処理部16は、対象物の検知処理により撮像データに含まれる対象物の座標の算出結果を抽出する(図5のステップSt5参照)。続いて、画像処理部16は、抽出した検知結果のデータを、ルートRT1c(つまりデータ伝送バス)を介してデータ出力I/F17に送る(ステップX17、図5のステップSt6参照)。これら対象物の検知処理ならびに検知結果のデータの伝送においても、それぞれ1fps以内(480fpsであれば、2.1ミリ秒以下)で処理される。 The memory 15 temporarily stores the imaging data input to the memory 15 in step X15. The memory 15 inputs the imaging data received at step X15 to the image processing section 16 via the route RT1b (that is, the data transmission bus P1) (step X16). The processing of this step X16 is processed within 1 fps (2.1 milliseconds or less at 480 fps). The image processing unit 16 uses the imaging data input in step X16 to execute detection processing of an object included in the imaging data (see step St4 in FIG. 5). The image processing unit 16 extracts the calculation result of the coordinates of the object included in the imaging data through the object detection process (see step St5 in FIG. 5). Subsequently, the image processing unit 16 sends the extracted detection result data to the data output I/F 17 via the route RT1c (that is, the data transmission bus) (step X17, see step St6 in FIG. 5). The detection processing of these objects and the transmission of detection result data are also processed within 1 fps (2.1 milliseconds or less at 480 fps).
 データ出力I/F17は、画像処理部16からの検知結果のデータを、ルートRT1d(言い換えると、所定のデータ伝送方式(例えばGigE))にしたがってロボットコントローラ30に送る。この処理も1fps以内で処理される。したがって、図4を参照して説明したカメラ装置10の処理全体でおおよそ10[ミリ秒]程度に抑えられる。イメージセンサ12から2.1[ミリ秒]ごとに撮像データが画像処理ボードB2に入力されたと仮定しても、画像処理ボードB2内で処理の輻輳が生じる可能性が低減される。したがって、本実施の形態に係るカメラ装置10では、カメラ装置10の処理全体において低遅延化を図ることができ、ロボットコントローラ30の制御への支障を及ぼさないことが期待できる。 The data output I/F 17 sends the detection result data from the image processing unit 16 to the robot controller 30 according to the route RT1d (in other words, a predetermined data transmission method (eg, GigE)). This processing is also processed within 1 fps. Therefore, the entire processing of the camera device 10 described with reference to FIG. 4 can be suppressed to about 10 [milliseconds]. Even if it is assumed that image data is input from the image sensor 12 to the image processing board B2 every 2.1 [milliseconds], the possibility of processing congestion occurring in the image processing board B2 is reduced. Therefore, in the camera device 10 according to the present embodiment, it is possible to reduce the delay in the entire processing of the camera device 10, and it can be expected that the control of the robot controller 30 will not be hindered.
 なお、カメラ装置10においてイメージセンサ12がカラーの撮像画像(RGB形式の撮像画像)を撮像してメモリ15に保存した場合、ISP14は、メモリ15から撮像データを読み出してRGB形式からYUV形式に変換し、かつ、画像処理部16の入力に適するサイズにリサイズし、リサイズ後の撮像データを再度メモリ15に保存してもよい。さらに、カメラ装置10は、メモリ15に保存されているリサイズ後の撮像データを画像処理部16に入力してもよい。 Note that when the image sensor 12 in the camera device 10 captures a color captured image (captured image in RGB format) and stores it in the memory 15, the ISP 14 reads the captured data from the memory 15 and converts it from RGB format to YUV format. In addition, the image data may be resized to a size suitable for input to the image processing unit 16, and the imaged data after resizing may be stored in the memory 15 again. Further, the camera device 10 may input the image data after resizing stored in the memory 15 to the image processing section 16 .
 また、カメラ装置10は、ISP14においてRGB形式からYUV形式に変換された撮像データに基づいて、イメージセンサ12による撮像(つまり露光)の露光条件を定める内部パラメータを調整するための露光制御信号を生成してイメージセンサ12に送ってもよい(AE control)。 In addition, the camera device 10 generates an exposure control signal for adjusting internal parameters that determine exposure conditions for imaging (that is, exposure) by the image sensor 12, based on the imaging data converted from the RGB format to the YUV format in the ISP 14. and sent to the image sensor 12 (AE control).
 また、カメラ装置10は、メモリ15に保存された撮像データをそのまま所定のデータ伝送方式(例えばGigE)にしたがって、外部端末(図示略)に向けてストリーミング配信してもよい。 In addition, the camera device 10 may stream the imaging data stored in the memory 15 as it is to an external terminal (not shown) according to a predetermined data transmission method (for example, GigE).
(第2動作例)
 次に、実施の形態1に係るカメラ装置10の第2動作例について、図6および図7を参照して説明する。図6は、実施の形態1に係るカメラ装置10の第2動作例におけるデータフローを時系列に示す図である。図7は、実施の形態1に係るカメラ装置10の第2動作例に係る動作手順例を示すフローチャートである。図6および図7の説明において、図4および図5の対応する要素あるいは処理と重複するものについては同一の符号あるいはステップ番号を付与して説明を簡略化し、異なる内容について説明する。
(Second operation example)
Next, a second operation example of the camera device 10 according to Embodiment 1 will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a diagram showing the data flow in time series in the second operation example of the camera device 10 according to the first embodiment. FIG. 7 is a flowchart showing an operation procedure example according to the second operation example of the camera device 10 according to the first embodiment. In the description of FIGS. 6 and 7, the same reference numerals or step numbers are given to the elements or processes that overlap with those of FIGS. 4 and 5 to simplify the description, and different contents will be described.
 図6の例は図4の例と同様にカメラ装置10の動作モードが動作モードテーブルTBL1の動作モード1(図3参照)に対応している。図6に示すように、カメラ装置10のイメージセンサ12は、所定解像度(例えば最大解像度がFullHD)を有する撮像データを撮像する(図7のステップSt1参照)。イメージセンサ12は、ステップSt1で撮像した撮像データを対象として、画像処理部16の入力に適するサイズにクロッピングあるいはビニングを行う。続いて、イメージセンサ12は、クロッピングあるいはビニングを行った撮像データを480[fps](言い換えると、2.1[ミリ秒])ごとに画像処理ボードB2に出力する(図7のステップSt2参照)。つまり、画像処理ボードB2のメモリ15には、イメージセンサ12から2.1[ミリ秒]ごとに、VGAの解像度の撮像データ(例えばVGA相当の輝度レベル、あるいは、RGB形式により構成されるデータ)が、ルートRT1a(つまりデータ伝送バス)を介して入力される(ステップX15、図7のステップSt3参照)。 In the example of FIG. 6, as in the example of FIG. 4, the operation mode of the camera device 10 corresponds to operation mode 1 (see FIG. 3) of the operation mode table TBL1. As shown in FIG. 6, the image sensor 12 of the camera device 10 captures imaging data having a predetermined resolution (for example, the maximum resolution is FullHD) (see step St1 in FIG. 7). The image sensor 12 performs cropping or binning on the imaged data imaged in step St1 to a size suitable for input to the image processing unit 16 . Subsequently, the image sensor 12 outputs the cropped or binned imaging data to the image processing board B2 every 480 [fps] (in other words, 2.1 [ms]) (see step St2 in FIG. 7). . That is, in the memory 15 of the image processing board B2, image data of VGA resolution (for example, luminance level equivalent to VGA, or data configured in RGB format) is received from the image sensor 12 every 2.1 [milliseconds]. is input via the route RT1a (that is, the data transmission bus) (step X15, see step St3 in FIG. 7).
 メモリ15は、ステップX15にてメモリ15に入力された撮像データを一度保存する。ISP14は、ルートRT2b(つまりISP14とメモリ15との間のデータ伝送バス)を介して撮像データをメモリ15から読み出してRGB形式からYUV形式に変換し(ステップX14(1))、かつ、画像処理部16の入力に適するサイズにリサイズする(ステップX14(2)、図7のステップSt11参照)。ISP14は、リサイズ後の撮像データをルートRT3b(つまりISP14とメモリ15との間のデータ伝送バス)を介してメモリ15に保存する(ステップX16、図7のステップSt12参照)。ステップX15、ステップX14(1)、ステップX14(2)、ステップX16までの処理はほぼ2.1[ミリ秒]で処理される。 The memory 15 temporarily stores the imaging data input to the memory 15 in step X15. The ISP 14 reads the imaging data from the memory 15 via the route RT2b (that is, the data transmission bus between the ISP 14 and the memory 15), converts it from RGB format to YUV format (step X14 (1)), and performs image processing. It is resized to a size suitable for input to the unit 16 (step X14 (2), see step St11 in FIG. 7). The ISP 14 stores the resized imaging data in the memory 15 via the route RT3b (that is, the data transmission bus between the ISP 14 and the memory 15) (step X16, see step St12 in FIG. 7). The processing up to step X15, step X14(1), step X14(2), and step X16 is processed in approximately 2.1 milliseconds.
 画像処理部16は、ステップX16で入力された撮像データを用いて、撮像データに含まれる対象物の検知処理を実行する(図7のステップSt4参照)。画像処理部16は、対象物の検知処理により撮像データに含まれる対象物の座標の算出結果を抽出する(図7のステップSt5参照)。続いて、画像処理部16は、抽出した検知結果のデータを、ルートRT1c(つまりデータ伝送バスP2)を介してデータ出力I/F17に送る(ステップX17、図7のステップSt6参照)。これらの対象物の検知処理ならびに検知結果のデータの伝送においても、それぞれ1fps以内(480fpsであれば、2.1[ミリ秒]以下)で処理される。 The image processing unit 16 uses the imaging data input in step X16 to execute detection processing of the object included in the imaging data (see step St4 in FIG. 7). The image processing unit 16 extracts the calculation result of the coordinates of the object included in the imaging data through the object detection process (see step St5 in FIG. 7). Subsequently, the image processing unit 16 sends the extracted detection result data to the data output I/F 17 via the route RT1c (that is, the data transmission bus P2) (step X17, see step St6 in FIG. 7). The detection processing of these objects and the transmission of detection result data are also processed within 1 fps (2.1 [ms] or less at 480 fps).
 データ出力I/F17は、画像処理部16からの検知結果のデータを、ルートRT1d(言い換えると、所定のデータ伝送方式(例えばGigE))にしたがってロボットコントローラ30に送る。この処理も1fps以内で処理される。したがって、図6を参照して説明したカメラ装置10の処理全体で、図4の第1動作例とほぼ同様におおよそ10[ミリ秒]程度に抑えられる。イメージセンサ12から2.1[ミリ秒]ごとに撮像データが画像処理ボードB2に入力されたと仮定しても、画像処理ボードB2内で処理の輻輳が生じる可能性が低減される。したがって、本実施の形態に係るカメラ装置10では、カメラ装置10の処理全体において低遅延化を図ることができ、ロボットコントローラ30の制御への支障を及ぼさないことが期待できる。 The data output I/F 17 sends the detection result data from the image processing unit 16 to the robot controller 30 according to the route RT1d (in other words, a predetermined data transmission method (eg, GigE)). This processing is also processed within 1 fps. Therefore, the entire processing of the camera device 10 described with reference to FIG. 6 can be suppressed to about 10 [milliseconds], substantially similar to the first operation example of FIG. Even if it is assumed that image data is input from the image sensor 12 to the image processing board B2 every 2.1 [milliseconds], the possibility of processing congestion occurring in the image processing board B2 is reduced. Therefore, in the camera device 10 according to the present embodiment, it is possible to reduce the delay in the entire processing of the camera device 10, and it can be expected that the control of the robot controller 30 will not be hindered.
(第3動作例)
 次に、実施の形態1に係るカメラ装置10の第3動作例について、図8および図9を参照して説明する。図8は、実施の形態1に係るカメラ装置10の第3動作例におけるデータフローを時系列に示す図である。図9は、実施の形態1に係るカメラ装置10の第3動作例に係る動作手順例を示すフローチャートである。図8および図9の説明において、図6および図7の対応する要素あるいは処理と重複するものについては同一の符号あるいはステップ番号を付与して説明を簡略化し、異なる内容について説明する。
(Third operation example)
Next, a third operation example of the camera device 10 according to Embodiment 1 will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 is a diagram showing the data flow in time series in the third operation example of the camera device 10 according to the first embodiment. FIG. 9 is a flow chart showing an operation procedure example according to the third operation example of the camera device 10 according to the first embodiment. In the description of FIGS. 8 and 9, the same reference numerals or step numbers are given to the elements or processes that overlap with those of FIGS. 6 and 7 to simplify the description, and different contents will be described.
 図8の例はカメラ装置10の動作モードが動作モードテーブルTBL1の動作モード3(図3参照)に対応している。図8に示すように、カメラ装置10のイメージセンサ12は、所定解像度(例えば最大解像度がFullHD)を有する撮像データを撮像する(図9のステップSt1A参照)。イメージセンサ12は、ステップSt1Aで撮像した撮像データを対象として、画像処理部16の入力に適するサイズにクロッピングあるいはビニングを行う。続いて、イメージセンサ12は、クロッピングあるいはビニングを行った撮像データを120[fps](言い換えると、8.4[ミリ秒])ごとに画像処理ボードB2に出力する(図9のステップSt2参照)。つまり、画像処理ボードB2のメモリ15には、イメージセンサ12から8.4[ミリ秒]ごとに、FullHDの解像度の撮像データ(例えばFullHD相当の輝度レベル、あるいは、RGB形式により構成されるデータ)が、ルートRT1a(つまりデータ伝送バス)を介して入力される(ステップX15、図9のステップSt3参照)。 In the example of FIG. 8, the operation mode of the camera device 10 corresponds to operation mode 3 (see FIG. 3) of the operation mode table TBL1. As shown in FIG. 8, the image sensor 12 of the camera device 10 captures imaging data having a predetermined resolution (for example, the maximum resolution is FullHD) (see step St1A in FIG. 9). The image sensor 12 performs cropping or binning to a size suitable for input to the image processing unit 16 on the imaged data imaged in step St1A. Subsequently, the image sensor 12 outputs the cropped or binned imaging data to the image processing board B2 every 120 [fps] (in other words, 8.4 [ms]) (see step St2 in FIG. 9). . That is, in the memory 15 of the image processing board B2, image data of FullHD resolution (for example, luminance level equivalent to FullHD, or data configured in RGB format) is stored every 8.4 [milliseconds] from the image sensor 12. is input via the route RT1a (that is, the data transmission bus) (step X15, see step St3 in FIG. 9).
 メモリ15は、ステップX15にてメモリ15に入力された撮像データを一度保存する。ISP14は、ルートRT2b(つまりISP14とメモリ15との間のデータ伝送バス)を介して撮像データをメモリ15から読み出してRGB形式からYUV形式に変換し(ステップX14(1))、かつ、画像処理部16の入力に適するサイズにリサイズする(ステップX14(2)、図9のステップSt11A参照)。これにより、例えばFullHD相当の撮像データからVGA相当の撮像データが得られる。ISP14は、リサイズ後の撮像データをルートRT3b(つまりISP14とメモリ15との間のデータ伝送バス)を介してメモリ15に保存する(ステップX16、図9のステップSt12参照)。ステップX15、ステップX14(1)、ステップX14(2)、ステップX16までの処理はほぼ8.4[ミリ秒]で処理される。 The memory 15 temporarily stores the imaging data input to the memory 15 in step X15. The ISP 14 reads the imaging data from the memory 15 via the route RT2b (that is, the data transmission bus between the ISP 14 and the memory 15), converts it from RGB format to YUV format (step X14 (1)), and performs image processing. It is resized to a size suitable for input to the unit 16 (step X14 (2), see step St11A in FIG. 9). As a result, for example, image data corresponding to VGA can be obtained from image data corresponding to FullHD. The ISP 14 stores the resized imaging data in the memory 15 via the route RT3b (that is, the data transmission bus between the ISP 14 and the memory 15) (step X16, see step St12 in FIG. 9). The processing up to step X15, step X14(1), step X14(2), and step X16 is processed in approximately 8.4 [milliseconds].
 画像処理部16は、ステップX16で入力された撮像データを用いて、撮像データに含まれる対象物の検知処理を実行する(図9のステップSt4参照)。画像処理部16は、対象物の検知処理により撮像データに含まれる対象物の座標の算出結果を抽出する(図9のステップSt5参照)。続いて、画像処理部は、抽出した検知結果のデータを、ルートRT1c(つまりデータ伝送バスP2)を介してデータ出力I/F17に送る(ステップX17、図9のステップSt6参照)。これらの対象物の検知処理ならびに検知結果のデータの伝送にはおよそ2~4[ミリ秒]で処理される。 The image processing unit 16 uses the imaging data input in step X16 to execute detection processing of the object included in the imaging data (see step St4 in FIG. 9). The image processing unit 16 extracts the calculation result of the coordinates of the object included in the imaging data through the object detection process (see step St5 in FIG. 9). Subsequently, the image processing unit sends the extracted detection result data to the data output I/F 17 via the route RT1c (that is, the data transmission bus P2) (step X17, see step St6 in FIG. 9). It takes about 2 to 4 milliseconds to detect these objects and transmit the data of the detection results.
 データ出力I/F17は、画像処理部16からの検知結果のデータを、ルートRT1d(言い換えると、所定のデータ伝送方式(例えばGigE))にしたがってロボットコントローラ30に送る。この処理にはおよそ1[ミリ秒]要する。したがって、図8を参照して説明したカメラ装置10の処理全体で、40[ミリ秒]以下に抑えられる。イメージセンサ12から8.4[ミリ秒]ごとに撮像データが画像処理ボードB2に入力されたと仮定しても、画像処理ボードB2内で処理の輻輳が生じる可能性が低減される。したがって、本実施の形態に係るカメラ装置10では、カメラ装置10の処理全体において低遅延化を図ることができ、ロボットコントローラ30の制御への支障を及ぼさないことが期待できる。 The data output I/F 17 sends the detection result data from the image processing unit 16 to the robot controller 30 according to the route RT1d (in other words, a predetermined data transmission method (eg, GigE)). This process takes about 1 [millisecond]. Therefore, the entire processing of the camera device 10 described with reference to FIG. 8 can be suppressed to 40 [milliseconds] or less. Even if it is assumed that image data is input from the image sensor 12 to the image processing board B2 every 8.4 [milliseconds], the possibility of processing congestion occurring in the image processing board B2 is reduced. Therefore, in the camera device 10 according to the present embodiment, it is possible to reduce the delay in the entire processing of the camera device 10, and it can be expected that the control of the robot controller 30 will not be hindered.
 なお、実施の形態1に係るカメラ装置10は、上述した第1動作例および第2動作例を適宜組み合わせた動作を実行することもできる(図5参照)。図5は、実施の形態1に係るカメラ装置10の第1動作例および第2動作例を組み合わせた動作手順例を示すフローチャートとして表すこともできる。なお、第1動作例および第2動作例を組み合わせた動作手順例では、イメージセンサ12は画像処理部16の入力に適するサイズへのクロッピングあるいはビニングを省略してもよいが、図5の例(つまり第1動作例)ではイメージセンサ12は画像処理部16の入力に適するサイズへのクロッピングあるいはビニングを行う。その他の処理内容は図5および図8において共通であるため、詳細な説明は省略する。 It should be noted that the camera device 10 according to Embodiment 1 can also execute an operation that appropriately combines the above-described first operation example and second operation example (see FIG. 5). FIG. 5 can also be expressed as a flowchart showing an example of an operation procedure combining the first example of operation and the second example of operation of the camera device 10 according to the first embodiment. Note that in the operation procedure example combining the first operation example and the second operation example, the image sensor 12 may omit cropping or binning to a size suitable for the input of the image processing unit 16, but the example ( That is, in the first operation example), the image sensor 12 performs cropping or binning to a size suitable for input to the image processing unit 16 . Since other processing contents are common to FIGS. 5 and 8, detailed description thereof will be omitted.
 なお、実施の形態1の変形例として、画像処理部におけるデータ転送をDMA転送によって実現してもよい。図10は、実施の形態1の変形例に係るカメラ装置10の画像処理部16Aの内部構成例を示すブロック図である。カメラ装置10の画像処理部16Aは、その画像処理部16A内において撮像データを画像処理部16A内のメモリ(画像処理メモリ162)へのDMA転送より実現することができる。 As a modification of the first embodiment, data transfer in the image processing unit may be realized by DMA transfer. FIG. 10 is a block diagram showing an internal configuration example of the image processing section 16A of the camera device 10 according to the modification of the first embodiment. The image processing unit 16A of the camera device 10 can realize the imaging data by DMA transfer to the memory (image processing memory 162) in the image processing unit 16A.
 図10に示す画像処理部16Aは、画像処理エンジン161、画像処理メモリ162、周辺機能処理部163、DMA処理部164を含む。画像処理エンジン161、画像処理メモリ162、周辺機能処理部163、DMA処理部164はそれぞれデータ伝送バスを介してデータの入出力が可能に接続されている。 The image processing unit 16A shown in FIG. 10 includes an image processing engine 161, an image processing memory 162, a peripheral function processing unit 163, and a DMA processing unit 164. The image processing engine 161, the image processing memory 162, the peripheral function processing section 163, and the DMA processing section 164 are connected to each other via a data transmission bus so that data can be input/output.
 画像処理エンジン161は、例えばGPUであり、画像処理部16Aによる対象物の検知処理を実行する。この検知結果のデータは、DMA処理部164により画像処理エンジン161から画像処理メモリ162に保存される。 The image processing engine 161 is, for example, a GPU, and executes object detection processing by the image processing unit 16A. This detection result data is stored in the image processing memory 162 from the image processing engine 161 by the DMA processing unit 164 .
 画像処理メモリ162は、例えばRAMであり、DMA処理部164によって転送された、画像処理エンジン161による対象物の検知処理に基づく検知結果のデータを一時的に保存する。 The image processing memory 162 is, for example, a RAM, and temporarily stores the detection result data based on the object detection processing by the image processing engine 161 , which is transferred by the DMA processing unit 164 .
 周辺機能処理部163は、例えばデータ出力I/F17との間でのデータあるいは信号の入出力が可能な回路である。周辺機能処理部163は、DMA処理部164によって画像処理メモリ162からデータ伝送バスを介してDMA転送された検知結果のデータを取得してデータ出力I/F17に送る。 The peripheral function processing unit 163 is a circuit capable of inputting/outputting data or signals to/from the data output I/F 17, for example. The peripheral function processing unit 163 acquires the detection result data DMA-transferred from the image processing memory 162 by the DMA processing unit 164 via the data transmission bus, and sends the data to the data output I/F 17 .
 DMA処理部164は、画像処理メモリ162に保存されている検知結果のデータを画像処理メモリ162からデータ伝送バスを介して周辺機能処理部163にDMA転送する。これにより、検知結果のデータの入出力は画像処理エンジン161が行うことなくDMA処理部164により代替的に実行され、画像処理部16A内での処理負荷が支配的な画像処理エンジン161の処理負荷が軽減可能となる。 The DMA processing unit 164 DMA-transfers the detection result data stored in the image processing memory 162 from the image processing memory 162 to the peripheral function processing unit 163 via the data transmission bus. As a result, the input/output of the detection result data is executed by the DMA processing unit 164 instead of the image processing engine 161, and the processing load of the image processing engine 161, which is dominated by the processing load in the image processing unit 16A, is reduced. can be reduced.
 以上、実施の形態1に係るカメラ装置10は、信号を入出力するメモリ15と、対象物を撮像し、対象物の撮像画像として、第1解像度(例えばFHD)を有する第1撮像画像と、第1解像度よりも小さい第2解像度(例えばVGA)を有する第2撮像画像とをメモリ15に出力するイメージセンサ12と、メモリ15から出力された撮像画像に検知対象物が含まれるか否かを検知する検知処理を行う画像処理部16と、検知処理の結果を出力するインターフェース(例えばデータ出力I/F17)と、を備える。これにより、カメラ装置10は、メモリ15に一度保存された撮像データを画像処理部16にデータ伝送する。したがって、カメラ装置10を用いた処理全体の低遅延化を図ることができる。 As described above, the camera device 10 according to Embodiment 1 includes the memory 15 that inputs and outputs signals, the first captured image that captures an image of an object and has a first resolution (for example, FHD) as the captured image of the object, An image sensor 12 that outputs a second captured image having a second resolution (for example, VGA) smaller than the first resolution to a memory 15, and an image sensor 12 that determines whether or not the captured image output from the memory 15 includes a detection target. An image processing unit 16 that performs detection processing and an interface (for example, data output I/F 17) that outputs the result of the detection processing are provided. As a result, the camera device 10 transmits the imaging data once stored in the memory 15 to the image processing section 16 . Therefore, it is possible to reduce the delay of the entire processing using the camera device 10 .
 また、イメージセンサ12は、撮像画像の画像領域を切り出すクロッピング処理を実行可能であり、第1撮像画像に対してクロッピング処理を行うことにより、第2撮像画像を生成する。これにより、カメラ装置10は、イメージセンサ12でのクロッピング処理により第1解像度より小さい第2解像度を有する撮像データを画像処理ボードB2に出力でき、画像処理ボードB2での処理負荷を低減できる。 In addition, the image sensor 12 can execute cropping processing for cutting out the image area of the captured image, and generates the second captured image by performing the cropping processing on the first captured image. Accordingly, the camera device 10 can output image data having a second resolution smaller than the first resolution to the image processing board B2 by cropping processing in the image sensor 12, and can reduce the processing load on the image processing board B2.
 また、イメージセンサ12は、撮像画像に含まれる複数の画素成分をひとつの画素成分に集約するビニング処理を実行可能であり、第1撮像画像に対してビニング処理を行うことにより、第2撮像画像を生成してメモリ15に出力する。これにより、カメラ装置10は、イメージセンサ12でのビニング処理により第1解像度より小さい第2解像度を有する撮像データを画像処理ボードB2に出力でき、画像処理ボードB2での処理負荷を低減できる。 Further, the image sensor 12 is capable of executing a binning process of aggregating a plurality of pixel components included in the captured image into one pixel component, and performing the binning process on the first captured image yields a second captured image. is generated and output to the memory 15 . Thereby, the camera device 10 can output image data having a second resolution smaller than the first resolution to the image processing board B2 by binning processing in the image sensor 12, and can reduce the processing load on the image processing board B2.
 また、第1撮像画像および第2撮像画像の画素成分は、輝度成分である。これにより、たとえイメージセンサ12によりモノクロ(白黒)形式の撮像データが撮像された場合であっても、カメラ装置10は、モノクロ(白黒)形式の撮像データを用いた処理全体の低遅延化を図ることができる。 Also, the pixel components of the first captured image and the second captured image are luminance components. As a result, even if the image sensor 12 captures monochrome (black-and-white) image data, the camera device 10 can reduce the overall delay of processing using the monochrome (black-and-white) image data. be able to.
 また、第1撮像画像および第2撮像画像の画素成分は、RGB成分である。これにより、たとえイメージセンサ12によりカラー(例えばRGB)形式の撮像データが撮像された場合であっても、カメラ装置10は、カラー(例えばRGB)形式の撮像データを用いた処理全体の低遅延化を図ることができる。 Also, the pixel components of the first captured image and the second captured image are RGB components. As a result, even if the image sensor 12 captures color (eg, RGB) format image data, the camera device 10 can reduce the overall delay of processing using the color (eg, RGB) format image data. can be achieved.
 また、実施の形態1に係るカメラ装置10は、メモリ15と画像処理部16との間を接続するバス(例えばデータ伝送バスP1)、を備える。メモリ15は、バスを介して第1撮像画像と第2撮像画像とを画像処理部16に入力する。これにより、メモリ15から画像処理部16までに第1撮像画像および第2撮像画像が直接に伝送される経路が形成されるので、画像処理ボードB2での処理負荷の低減が可能となる。 The camera device 10 according to Embodiment 1 also includes a bus (for example, a data transmission bus P1) that connects the memory 15 and the image processing unit 16. The memory 15 inputs the first captured image and the second captured image to the image processing section 16 via the bus. As a result, a path is formed through which the first captured image and the second captured image are directly transmitted from the memory 15 to the image processing unit 16, so that the processing load on the image processing board B2 can be reduced.
 また、画像処理部16は、検知対象物を定めるための学習モデル(学習済みモデル)を用いて検知処理を実行するAI(Artificial Intelligents)によって実現されている。これにより、カメラ装置10は、撮像画像中に検知対象物が含まれるか否かを検知する検知処理のために機械学習等を介して生成された学習済みモデルを画像処理部16で利用可能となり、対象物の検知精度を高めることができる。 In addition, the image processing unit 16 is realized by AI (Artificial Intelligence) that executes detection processing using a learning model (learned model) for determining a detection target. As a result, the camera device 10 can use, in the image processing unit 16, a learned model generated through machine learning or the like for detection processing for detecting whether or not a detection target is included in a captured image. , the detection accuracy of the object can be improved.
 また、実施の形態1に係るカメラ装置10は、イメージセンサ12を制御する制御信号を出力する制御部(例えばCPU13あるいはISP14)、をさらに備える。制御部は、単位時間毎に第1撮像画像を第1フレーム枚(例えば動作モード3のセンサフレームレート;120fps)出力する第1モード(例えば動作モード3)をイメージセンサ12に実行させる第1制御信号と、単位時間毎に第2撮像画像を第1フレーム枚より多い第2フレーム枚(例えば動作モード1のセンサフレームレート;480fps)出力する第2モード(例えば動作モード1)をイメージセンサ12に実行させる第2制御信号とを切り替えて出力する。これにより、カメラ装置10は、カメラ装置10の動作モードを、480fps程度の高速な撮像が可能となる動作モード1と120fps程度の低速な撮像が可能となる動作モード3との間で切り替えできる。 Further, the camera device 10 according to Embodiment 1 further includes a control section (for example, the CPU 13 or the ISP 14) that outputs a control signal for controlling the image sensor 12. The control unit causes the image sensor 12 to execute a first mode (for example, operation mode 3) in which the first captured image is output for each unit time in a first frame (for example, sensor frame rate of operation mode 3; 120 fps). and a second mode (for example, operation mode 1) for outputting a second captured image per unit time for a second frame larger than the first frame (for example, sensor frame rate of operation mode 1; 480 fps) to the image sensor 12. The second control signal to be executed is switched and output. Thereby, the camera device 10 can switch the operation mode of the camera device 10 between the operation mode 1 that enables high-speed imaging of about 480 fps and the operation mode 3 that enables low-speed imaging of about 120 fps.
 また、イメージセンサ12は、対象物の撮像画像として、第1解像度(例えばFHD)よりも小さく、かつ第2解像度(例えばVGA)よりも大きい第3解像度(例えば1.3MP)を有する第3撮像画像を出力可能である。制御部(例えばCPU13あるいはISP14)は、単位時間毎に第3撮像画像を第1フレーム枚よりも多く、かつ第2フレーム枚より少ない第3フレーム枚(例えば動作モード2のセンサフレームレート;240fps)出力する第3モード(例えば動作モード2)をイメージセンサ12に実行させる第3制御信号と、第1制御信号と、第2制御信号とを切り替えて出力する。これにより、カメラ装置10は、カメラ装置10の動作モードを3種類の中から、480fps程度の高速な撮像が可能となる動作モード1と240fps程度の中速な撮像が可能となる動作モード2と120fps程度の低速な撮像が可能となる動作モード3との間で切り替えできる。 In addition, the image sensor 12 performs a third imaging having a third resolution (eg, 1.3 MP) smaller than the first resolution (eg, FHD) and larger than the second resolution (eg, VGA) as a captured image of the object. Images can be output. The control unit (for example, CPU 13 or ISP 14) captures a third captured image per unit time, which is more than the first frame and less than the second frame (for example, sensor frame rate in operation mode 2; 240 fps). A third control signal for causing the image sensor 12 to execute a third mode (for example, operation mode 2) to be output, a first control signal, and a second control signal are switched and output. As a result, the camera device 10 can be operated in three operation modes: an operation mode 1 that enables high-speed imaging of about 480 fps and an operation mode 2 that enables medium-speed imaging of about 240 fps. It is possible to switch between operation mode 3 in which low-speed imaging of about 120 fps is possible.
 以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.
 なお、上述した実施の形態1に係るカメラ装置10のユースケースは、上述したロボット制御システム100に限定されず、例えば以下に示す各種のユースケースにも適用可能である。 The use case of the camera device 10 according to Embodiment 1 described above is not limited to the robot control system 100 described above, and can be applied to various use cases described below, for example.
 (1)固定設置されたカメラ装置10による高速なライン検査:カメラ装置10は、ライン上を流れてくる(移動してくる)錠剤入りケースを対象物として撮像する。ロボット制御システムは、例えば工場等の生産施設内に配置され、錠剤入りケースの撮像画像に基づいて異常状態の錠剤(例えば欠損がある錠剤)を取り除く。カメラ装置10の処理全体で低遅延化が図られるので、錠剤検査を高速に実現可能となる。 (1) High-speed line inspection by a fixedly installed camera device 10: The camera device 10 captures an image of a case containing tablets flowing (moving) on the line as an object. The robot control system is placed, for example, in a production facility such as a factory, and removes abnormal tablets (for example, defective tablets) based on the captured image of the tablet-containing case. Since the entire processing of the camera device 10 can be reduced in delay, it is possible to realize high-speed tablet inspection.
 (2)逃げ回る移動体をカメラ装置10にて正確に追従:カメラ装置10がドローン等のマルチコプタ型の無人航空機に搭載されてもよい。カメラ装置10が搭載されたドローンは、カメラ装置10により対象物(例えば逃走する事件等の被疑者)を追尾し、遠方から正確に電子銃等で狙撃することができる。対象物とカメラ装置10が搭載されたドローンとがともに移動体である場合でも、カメラ装置10の処理全体で低遅延化が図られるので、リアルタイムにフィードバック可能となり、的確に対象物を威嚇あるいは狙撃可能となる。 (2) The camera device 10 accurately follows a moving object that runs around: The camera device 10 may be mounted on a multicopter-type unmanned aerial vehicle such as a drone. A drone equipped with the camera device 10 can track an object (for example, a suspect in an escape incident) by the camera device 10 and accurately shoot the object with an electron gun or the like from a distance. Even if both the object and the drone on which the camera device 10 is mounted are moving bodies, the entire processing of the camera device 10 can be made low-delay, so real-time feedback is possible, and the object can be threatened or shot accurately. It becomes possible.
 (3)自動運転車両等の安全装置にカメラ装置10が搭載:カメラ装置10が自動運転車両の車体後方に固定設置されることで、カメラ装置10の処理全体で低遅延化が図られるので、他車両との衝突を回避が可能となる。また、市街に監視カメラとしてカメラ装置10が配置された場合、カメラ装置10の処理全体で低遅延化が図られるので、低遅延でフィードバック(例えば危険な状況を認識して停止させること)で車道を走行する自動車の衝突を回避可能となる。 (3) The camera device 10 is installed in the safety device of an autonomous vehicle, etc.: By fixedly installing the camera device 10 at the rear of the vehicle body of the autonomous vehicle, the overall processing delay of the camera device 10 can be reduced. It is possible to avoid collisions with other vehicles. In addition, when the camera device 10 is installed as a surveillance camera in the city, low delay is achieved in the entire processing of the camera device 10, so feedback (for example, recognizing a dangerous situation and stopping) can be performed on the roadway with low delay. It is possible to avoid collisions of automobiles running
 (4)カメラ装置10が環境輝度変化に高速に対応:外部環境の輝度変化に対して露光時間あるいは照明出力を適切に設定することで、カメラ装置10の処理全体で低遅延化が図られるので、環境に応じた適切な制御を行ったり望まれる画質の画像が得られたりすることができる。 (4) The camera device 10 responds quickly to changes in environmental brightness: By appropriately setting the exposure time or lighting output in response to changes in the brightness of the external environment, the overall processing delay of the camera device 10 can be reduced. , appropriate control can be performed according to the environment, and an image of desired image quality can be obtained.
 なお、本出願は、2022年1月28日出願の日本特許出願(特願2022-012213)に基づくものであり、その内容は本出願の中に参照として援用される。 This application is based on a Japanese patent application (Japanese Patent Application No. 2022-012213) filed on January 28, 2022, the content of which is incorporated herein by reference.
 本開示は、カメラ装置を用いた処理全体の低遅延化を実現可能とするカメラ装置および画像処理方法として有用である。 The present disclosure is useful as a camera device and an image processing method that make it possible to reduce the overall delay of processing using a camera device.
10、10A、10B カメラ装置
11 レンズ
12 イメージセンサ
13 CPU
14 ISP
15 メモリ
16 画像処理部
17 データ出力I/F
30 ロボットコントローラ
50、50A、50B ロボット
51A、51B ロボットドライバ
52A、52B ロボットモータ
100 ロボット制御システム
AR1、AR2 ロボットアーム
B2 画像処理ボード
CB ベルトコンベア
DR1 移送方向
WK1、WK2 ワーク
10, 10A, 10B camera device 11 lens 12 image sensor 13 CPU
14 ISPs
15 memory 16 image processing unit 17 data output I/F
30 Robot controllers 50, 50A, 50B Robots 51A, 51B Robot drivers 52A, 52B Robot motors 100 Robot control systems AR1, AR2 Robot arms B2 Image processing board CB Belt conveyor DR1 Transfer directions WK1, WK2 Work

Claims (11)

  1.  信号を入出力するメモリと、
     対象物を撮像し、前記対象物の撮像画像として、第1解像度を有する第1撮像画像と、前記第1解像度よりも小さい第2解像度を有する第2撮像画像とを前記メモリに出力するイメージセンサと、
     前記メモリから出力された撮像画像に検知対象物が含まれるか否かを検知する検知処理を行う画像処理部と、
     前記検知処理の結果を出力するインターフェースと、を備える、
     カメラ装置。
    a memory for inputting and outputting signals;
    An image sensor that captures an image of an object and outputs to the memory a first captured image having a first resolution and a second captured image having a second resolution smaller than the first resolution as captured images of the object. and,
    an image processing unit that performs detection processing for detecting whether or not a detection target is included in the captured image output from the memory;
    and an interface that outputs the result of the detection process,
    camera equipment.
  2.  前記イメージセンサは、
     前記撮像画像の画像領域を切り出すクロッピング処理を実行可能であり、前記第1撮像画像に対して前記クロッピング処理を行うことにより、前記第2撮像画像を生成する、
     請求項1に記載のカメラ装置。
    The image sensor is
    A cropping process that cuts out an image area of the captured image can be executed, and the second captured image is generated by performing the cropping process on the first captured image.
    A camera device according to claim 1 .
  3.  前記イメージセンサは、
     前記撮像画像に含まれる複数の画素成分をひとつの画素成分に集約するビニング処理を実行可能であり、前記第1撮像画像に対して前記ビニング処理を行うことにより、前記第2撮像画像を生成して前記メモリに出力する、
     請求項1に記載のカメラ装置。
    The image sensor is
    A binning process for aggregating a plurality of pixel components included in the captured image into one pixel component can be executed, and the second captured image is generated by performing the binning process on the first captured image. outputting to said memory by
    A camera device according to claim 1 .
  4.  前記第1撮像画像および前記第2撮像画像の画素成分は、輝度成分である、
     請求項1から3のいずれか1項に記載のカメラ装置。
    Pixel components of the first captured image and the second captured image are luminance components,
    4. A camera device according to any one of claims 1 to 3.
  5.  前記第1撮像画像および前記第2撮像画像の画素成分は、RGB成分である、
     請求項1から3のいずれか1項に記載のカメラ装置。
    Pixel components of the first captured image and the second captured image are RGB components,
    4. A camera device according to any one of claims 1 to 3.
  6.  前記メモリと前記画像処理部との間を接続するバス、をさらに備え、
     前記メモリは、
     前記バスを介して前記第1撮像画像と前記第2撮像画像とを前記画像処理部に入力する、
     請求項1から5のいずれか1項に記載のカメラ装置。
    further comprising a bus connecting between the memory and the image processing unit,
    The memory is
    inputting the first captured image and the second captured image to the image processing unit via the bus;
    A camera device according to any one of claims 1 to 5.
  7.  前記画像処理部は、
     前記検知対象物を定めるための学習モデルを用いて前記検知処理を実行するAI(Artificial Intelligents)である、
     請求項1から6のいずれか1項に記載のカメラ装置。
    The image processing unit
    AI (Artificial Intelligents) that performs the detection process using a learning model for determining the detection target,
    A camera device according to any one of claims 1 to 6.
  8.  前記イメージセンサを制御する制御信号を出力する制御部、をさらに備え、
     前記制御部は、
     単位時間毎に前記第1撮像画像を第1フレーム枚出力する第1モードを前記イメージセンサに実行させる第1制御信号と、単位時間毎に前記第2撮像画像を前記第1フレーム枚より多い第2フレーム枚出力する第2モードを前記イメージセンサに実行させる第2制御信号とを切り替えて出力する、
     請求項1から7のいずれか1項に記載のカメラ装置。
    further comprising a control unit that outputs a control signal for controlling the image sensor,
    The control unit
    a first control signal for causing the image sensor to execute a first mode of outputting a first frame of the first captured image per unit time; switching between and outputting a second control signal that causes the image sensor to execute a second mode of outputting two frames;
    A camera device according to any one of claims 1 to 7.
  9.  前記イメージセンサは、
     前記対象物の撮像画像として、前記第1解像度よりも小さく、かつ前記第2解像度よりも大きい第3解像度を有する第3撮像画像を出力可能であり、
     前記制御部は、
     単位時間毎に前記第3撮像画像を前記第1フレーム枚よりも多く、かつ前記第2フレーム枚より少ない第3フレーム枚出力する第3モードを前記イメージセンサに実行させる第3制御信号と、前記第1制御信号と、前記第2制御信号とを切り替えて出力する、
     請求項8に記載のカメラ装置。
    The image sensor is
    capable of outputting a third captured image having a third resolution smaller than the first resolution and larger than the second resolution as the captured image of the object;
    The control unit
    a third control signal for causing the image sensor to execute a third mode in which the third captured image is output for each unit time in a third frame that is larger than the first frame and smaller than the second frame; switching and outputting the first control signal and the second control signal;
    9. A camera device according to claim 8.
  10.  請求項1から9のいずれか1項に記載のカメラ装置を備える、システム。 A system comprising the camera device according to any one of claims 1 to 9.
  11.  対象物を撮像し、前記対象物の撮像画像として、第1解像度を有する第1撮像画像と、前記第1解像度よりも小さい第2解像度を有する第2撮像画像とを、データを入出力するメモリに出力することと、
     前記メモリから出力された撮像画像に検知対象物が含まれるか否かを検知する検知処理を行うことと、
     前記検知処理の結果を出力することと、を含む、
     画像処理方法。
    A memory for capturing an image of an object and inputting/outputting data of a first captured image having a first resolution and a second captured image having a second resolution smaller than the first resolution as captured images of the object. and output to
    performing detection processing for detecting whether or not a detection target is included in the captured image output from the memory;
    and outputting a result of the sensing process;
    Image processing method.
PCT/JP2023/001984 2022-01-28 2023-01-23 Camera device and image processing method WO2023145698A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022012213 2022-01-28
JP2022-012213 2022-01-28

Publications (1)

Publication Number Publication Date
WO2023145698A1 true WO2023145698A1 (en) 2023-08-03

Family

ID=87471980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/001984 WO2023145698A1 (en) 2022-01-28 2023-01-23 Camera device and image processing method

Country Status (1)

Country Link
WO (1) WO2023145698A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162141A (en) * 2016-03-09 2017-09-14 株式会社デンソーアイティーラボラトリ Image identification system, control device therefor, and image identification method
JP2017192123A (en) * 2016-04-12 2017-10-19 キヤノン株式会社 Image recorder and control method of the same
JP2020188310A (en) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 Image recognition device and image recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162141A (en) * 2016-03-09 2017-09-14 株式会社デンソーアイティーラボラトリ Image identification system, control device therefor, and image identification method
JP2017192123A (en) * 2016-04-12 2017-10-19 キヤノン株式会社 Image recorder and control method of the same
JP2020188310A (en) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 Image recognition device and image recognition method

Similar Documents

Publication Publication Date Title
CN109691079B (en) Imaging device and electronic apparatus
US10447930B2 (en) Monitoring camera and swing correction method
JP6319340B2 (en) Movie imaging device
JP2008060873A (en) Camera with two or more angles of view
JP4781243B2 (en) Drive recorder and image acquisition timing control method thereof
CN108496056B (en) Image pickup apparatus
EP1742463B1 (en) Image-shake correction apparatus with output to video image synthesis
JP2009089158A (en) Imaging apparatus
US20180136477A1 (en) Imaging apparatus and automatic control system
US7872671B2 (en) Image pickup apparatus and image pickup method
WO2023145698A1 (en) Camera device and image processing method
JP2006243373A (en) Video signal processor, imaging apparatus mounted with the same, and method and program for processing video signal
JP2006224291A (en) Robot system
JP5256060B2 (en) Imaging device
US7917021B2 (en) Portable apparatus
WO2023189077A1 (en) Control device, and imaging device
CN103379273A (en) Imaging device
WO2021152877A1 (en) Solid-state imaging device, electronic device, and imaging system
JP6238629B2 (en) Image processing method and image processing apparatus
JP2009101464A (en) Method and apparatus for automatically controlling tool having motion picture camera and image processor
US11818470B2 (en) Image generation device, image generation method, and vehicle control system
JP2004286699A (en) Method and detector for detecting image position
JPH09322047A (en) Video camera control method, video camera control system, video camera controller and video camera
JP2003018450A (en) Still picture imaging apparatus
JP2019022028A (en) Imaging apparatus, control method and program thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23746909

Country of ref document: EP

Kind code of ref document: A1