JP2020027956A - Processing device - Google Patents

Processing device Download PDF

Info

Publication number
JP2020027956A
JP2020027956A JP2018150205A JP2018150205A JP2020027956A JP 2020027956 A JP2020027956 A JP 2020027956A JP 2018150205 A JP2018150205 A JP 2018150205A JP 2018150205 A JP2018150205 A JP 2018150205A JP 2020027956 A JP2020027956 A JP 2020027956A
Authority
JP
Japan
Prior art keywords
signal
control signal
operation signal
circuit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018150205A
Other languages
Japanese (ja)
Other versions
JP7024658B2 (en
Inventor
正紀 舟木
Masanori Funaki
正紀 舟木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018150205A priority Critical patent/JP7024658B2/en
Publication of JP2020027956A publication Critical patent/JP2020027956A/en
Application granted granted Critical
Publication of JP7024658B2 publication Critical patent/JP7024658B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Selective Calling Equipment (AREA)

Abstract

To reduce, in a remote operation, a delay from when an operation signal is received to when an operated device is executed, and improve the operability.SOLUTION: A processing device of an operated device that generates and outputs a control signal corresponding to an operation signal indicating an instruction of a remote operator includes a prediction circuit that predicts the next instruction issued by the operator on the basis of peripheral information of the operated device and generates a predicted operation signal based on the prediction, and a control signal generation circuit that generates the control signal based on the operation signal or the predicted operation signal, and the control signal generation circuit outputs a first control signal generated on the basis of the predicted operation signal before receiving the operation signal when an error of the predicted operation signal with respect to the operation signal is within a first range.SELECTED DRAWING: Figure 4

Description

本発明は、遠隔操作における処理装置に関する。   The present invention relates to a processing device for remote control.

通信を介して遠隔操作をする場合、操作機器と被操作機器の間に遅延が生じ、操作性が悪くなるという問題が生じる。従来、この遅延は通信にかかる遅延が問題とされていた。例えば、特許文献1は、通信にかかる遅延が操作性にあたえる問題を解決する宇宙用ロボット操作支援システムに関する。   When performing remote control via communication, there is a problem that a delay occurs between the operating device and the operated device, and the operability deteriorates. Conventionally, this delay has been a problem of communication delay. For example, Patent Literature 1 relates to a space robot operation support system that solves a problem that delay in communication affects operability.

特開平1−97591号公報JP-A-1-97591

遠隔操作においては、特許文献1で示されたような通信にかかる遅延だけでなく、操作機器からの操作指示が被操作機器の処理装置を介して駆動部を制御実行するまでに要する時間という遅延がある。つまり、操作機器からの操作信号が被操作機器に届き、非操作機器内の処理装置を介して駆動部を制御する制御信号を生成し、この制御信号により駆動部の制御が実行されるまでの遅延である。この遅延が遠隔操作の操作性を悪化させるため、解決が望まれる。   In remote operation, not only a delay related to communication as shown in Patent Document 1, but also a delay that is a time required for an operation instruction from an operating device to control and execute a driving unit via a processing device of an operated device. There is. That is, an operation signal from the operating device reaches the operated device, generates a control signal for controlling the driving unit via the processing device in the non-operating device, and controls the driving unit by this control signal until the driving unit is controlled. It is a delay. Since this delay deteriorates the operability of remote control, a solution is desired.

本発明は、遠隔操作において、操作信号が届いてから被操作機器が実行するまでにかかる遅延を減らし、操作性を改善する処理装置を提供することを目的とする。   SUMMARY OF THE INVENTION It is an object of the present invention to provide a processing device that reduces the delay from the receipt of an operation signal to the execution of an operated device and improves the operability in remote operation.

本発明は、遠隔地の操作者の指示を示す操作信号に応じた制御信号を生成し、出力する被操作機器の処理装置であって、被操作機器の周辺情報に基づいて操作者が次に出す指示を予測し、予測に基づく予測操作信号を生成する予測回路と、操作信号または予測操作信号に基づく制御信号を生成する制御信号生成回路とを備え、予測操作信号の操作信号に対する誤差が第1の範囲内にある時には、制御信号生成回路が操作信号を受け取る前に予測操作信号に基づいて生成した第1の制御信号を出力することを特徴とする処理装置、を提供する。   The present invention is a processing device of an operated device that generates and outputs a control signal corresponding to an operation signal indicating an instruction of a remote operator, and the operator can perform a next operation based on peripheral information of the operated device. A prediction circuit for predicting an instruction to be issued and generating a prediction operation signal based on the prediction, and a control signal generation circuit for generating a control signal based on the operation signal or the prediction operation signal, wherein an error of the prediction operation signal with respect to the operation signal is reduced. A first control signal that is generated based on the predicted operation signal before the control signal generation circuit receives the operation signal when the value is within the range of 1.

本発明の処理装置によれば、従来よりも遠隔操作の処理速度・効率を向上させることにより操作性を高めることができる。   ADVANTAGE OF THE INVENTION According to the processing apparatus of this invention, operability can be improved by improving the processing speed and efficiency of remote control compared with the former.

本発明の処理装置を備える遠隔操作システムを示すブロック図である。It is a block diagram showing a remote control system provided with a processing unit of the present invention. 本発明の処理装置を備える遠隔操作システムの操作側機器の詳細ブロック図である。FIG. 2 is a detailed block diagram of an operation-side device of a remote operation system including the processing device of the present invention. 本発明の処理装置を備える被操作機器の詳細ブロック図である。FIG. 2 is a detailed block diagram of the operated device including the processing device of the present invention. 本発明の処理装置のブロック図である。It is a block diagram of a processing device of the present invention. 従来の処理の流れを示す図である。FIG. 11 is a diagram showing a flow of a conventional process. 本発明の処理装置の予測回路を使った処理の流れを示す図である。It is a figure showing the flow of processing using the prediction circuit of the processing unit of the present invention. 本発明による処理装置の予測装置が利用するために好適な撮像装置のブロック図である。FIG. 1 is a block diagram of an imaging device suitable for use by a prediction device of a processing device according to the present invention. 本発明による処理装置の予測装置が利用するために好適な撮像装置の詳細ブロック図である。1 is a detailed block diagram of an imaging device suitable for use by a prediction device of a processing device according to the present invention. 本発明の処理装置の予測回路が利用する周辺情報を出力する撮像装置が画像認識する内容を説明するための図である。FIG. 3 is a diagram for explaining the details of image recognition performed by an imaging device that outputs peripheral information used by a prediction circuit of the processing device of the present invention.

以下、本発明の一実施形態の処理装置について説明する。   Hereinafter, a processing apparatus according to an embodiment of the present invention will be described.

図1は本発明の処理装置を備える遠隔操作システムを示すブロック図である。操作機器1と本発明の処理装置を備えた被操作機器2は、通信網3を介して接続している。操作機器1の図示しない操作者は、操作機器1に被操作機器2への指示を入力する。操作機器1は、入力された指示内容に基づいて操作信号を生成し、通信網3を通じて被操作機器2に送る。被操作機器2は、送られた操作信号を処理して、指示内容を実行する。被操作機器2は、被操作機器2の周辺情報を取得する手段を備えており、当該手段によって取得された周辺情報の一部は通信網3を通じて操作機器1に送られる。   FIG. 1 is a block diagram showing a remote operation system including the processing device of the present invention. The operating device 1 and the operated device 2 including the processing device of the present invention are connected via a communication network 3. An operator (not shown) of the operating device 1 inputs an instruction to the operated device 2 to the operating device 1. The operation device 1 generates an operation signal based on the input instruction content and sends the operation signal to the operated device 2 through the communication network 3. The operated device 2 processes the transmitted operation signal and executes the instruction. The operated device 2 includes a unit for acquiring peripheral information of the operated device 2, and a part of the peripheral information acquired by the unit is transmitted to the operating device 1 through the communication network 3.

操作機器1、被操作機器2と通信網3との接続は、有線でも無線でもよい。また、通信網3は、不特定多数が使う公衆通信網であってもよいし、専用の通信線でもよい。更に、通信網3は、携帯電話の通信網でもよいし、インターネットプロトコルを用いたインターネット通信網でもよい。   The connection between the operating device 1, the operated device 2, and the communication network 3 may be wired or wireless. The communication network 3 may be a public communication network used by an unspecified number of people, or may be a dedicated communication line. Further, the communication network 3 may be a mobile phone communication network or an Internet communication network using an Internet protocol.

図2に操作機器1のブロック図を示す。   FIG. 2 shows a block diagram of the operating device 1.

操作機器1は、図示しない操作者が被操作機器2への指示を入力するためのユーザインターフェイス(UI)11、ユーザインターフェイス11に入力された内容に基づいて操作信号を生成する操作信号生成回路12、通信網3を通じて被操作機器2と通信を行う通信回路13、被操作機器2から送られる周辺情報に含まれる映像信号を表示する表示装置14、被操作機器2から送られる周辺情報に含まれる音声信号を音声にするスピーカ15を含む。   The operation device 1 includes a user interface (UI) 11 for an operator (not shown) to input an instruction to the operated device 2, and an operation signal generation circuit 12 for generating an operation signal based on the content input to the user interface 11. A communication circuit 13 for communicating with the operated device 2 through the communication network 3, a display device 14 for displaying a video signal included in the peripheral information transmitted from the operated device 2, and a peripheral device transmitted from the operated device 2. It includes a speaker 15 for converting an audio signal into audio.

ユーザインターフェイス11は、操作者が指示内容を入力するための入力装置であり、たとえばジョイスティック、ハンドル、レバー、ボタン、数値入力装置、あるいはこれらの組み合わせ等からなる。これらの入力装置は、操作者が直感的に操作できるようになっている。操作者が入力する入力信号は、多くの場合、電圧値などのアナログの信号である。ユーザインターフェイス11は、アナログの入力信号を図示しないAD変換器などでデジタル化し、デジタル化された入力信号として操作信号生成回路12に供給する。   The user interface 11 is an input device for the operator to input instruction contents, and includes, for example, a joystick, a handle, a lever, a button, a numerical value input device, or a combination thereof. These input devices can be intuitively operated by an operator. The input signal input by the operator is often an analog signal such as a voltage value. The user interface 11 digitizes an analog input signal using an AD converter (not shown) or the like, and supplies the digitized input signal to the operation signal generation circuit 12.

操作信号生成回路12は、ユーザインターフェイス11から送られた入力信号に基づいて、所定のプロトコルに従った操作信号を生成する。例えば、入力信号に所定のヘッダを加えたり、複数の入力装置からの信号を所定の順序に配列したりする。つまり、操作信号生成回路12は、操作者の入力した指示内容を被操作機器2が理解できる形式に整える。操作信号生成回路12は、生成した操作信号を通信回路13に供給する。   The operation signal generation circuit 12 generates an operation signal according to a predetermined protocol based on the input signal sent from the user interface 11. For example, a predetermined header is added to an input signal, or signals from a plurality of input devices are arranged in a predetermined order. That is, the operation signal generation circuit 12 arranges the instruction content input by the operator into a format that the operated device 2 can understand. The operation signal generation circuit 12 supplies the generated operation signal to the communication circuit 13.

通信回路13は、通信網3を通じて、所定の通信プロトコルにしたがって、操作信号を被操作機器2に送る。また、通信回路13は、被操作機器2から被操作機器2の周辺情報信号を受け取る。周辺情報信号には、映像信号や音声信号が含まれており、通信回路13は、受け取った周辺情報信号を、信号の種類ごとにそれを処理する装置に夫々供給する。   The communication circuit 13 sends an operation signal to the operated device 2 through the communication network 3 according to a predetermined communication protocol. Further, the communication circuit 13 receives a peripheral information signal of the operated device 2 from the operated device 2. The peripheral information signal includes a video signal and an audio signal, and the communication circuit 13 supplies the received peripheral information signal to a device that processes the signal for each type of signal.

表示装置14は、周辺情報信号に含まれる映像信号を表示する。またスピーカ15は、周辺情報信号に含まれる音声信号を音に変換する。   The display device 14 displays a video signal included in the peripheral information signal. The speaker 15 converts the audio signal included in the peripheral information signal into a sound.

図示しない操作者は、表示装置14の映像、スピーカ15の音声から被操作機器2の周辺情報を得て、それをもとに被操作機器2への指示を決定し、ユーザインターフェイス11を用いて指示内容を入力する。   An operator (not shown) obtains peripheral information of the operated device 2 from the video of the display device 14 and the sound of the speaker 15, determines an instruction to the operated device 2 based on the information, and uses the user interface 11. Enter the instructions.

なお、被操作機器2の周辺情報は、映像信号と音声信号に限定されるわけではない。たとえば、被操作機器2がレーダを持っている場合には、その情報を操作機器1に送るようにし、操作機器1の表示装置14に表示するようにしてもよい。被操作機器2が温度計を持っている場合には、温度を表示装置14に表示してもよいし、スピーカ15から音声で操作者に伝えるようにしてもよい。   The peripheral information of the operated device 2 is not limited to the video signal and the audio signal. For example, when the operated device 2 has a radar, the information may be sent to the operating device 1 and displayed on the display device 14 of the operating device 1. When the operated device 2 has a thermometer, the temperature may be displayed on the display device 14 or may be transmitted from the speaker 15 to the operator by voice.

図3に被操作機器2のブロック図を示す。   FIG. 3 shows a block diagram of the operated device 2.

被操作機器2は、通信網3を介して操作機器1との通信を行う通信回路21、被操作機器2内の情報処理を行う処理装置22、周辺情報信号を処理装置22に供給する周辺情報取得回路23、処理装置22が情報を保存するメモリ24、バス250を介して駆動部を制御する制御回路25、制御回路25が情報を保存するメモリ26とからなる。   The operated device 2 communicates with the operating device 1 via the communication network 3, a processing device 22 that performs information processing in the operated device 2, and peripheral information that supplies a peripheral information signal to the processing device 22. An acquisition circuit 23, a memory 24 in which the processing device 22 stores information, a control circuit 25 for controlling the drive unit via a bus 250, and a memory 26 in which the control circuit 25 stores information.

また、被操作機器2は、例えばバス230を介して撮像装置300、マイク232、温度計233、レーザレーダ234、ミリ波レーダ235などのセンサからの情報を取得する。これらのセンサが取得した情報は周辺情報取得回路23に供給される。周辺情報処理回路23は供給された信号を整理して、周辺情報信号として処理装置22に供給する。   The operated device 2 acquires information from sensors such as the imaging device 300, the microphone 232, the thermometer 233, the laser radar 234, and the millimeter-wave radar 235 via the bus 230, for example. The information acquired by these sensors is supplied to the peripheral information acquisition circuit 23. The peripheral information processing circuit 23 sorts out the supplied signals and supplies them to the processing device 22 as peripheral information signals.

制御回路25は、例えば、バス250を介して、複数の駆動部251〜253を制御する。駆動部の数は被操作機器2の機能によって変わる。駆動部251〜253は、例えば電気モータやアクチュエータ、変速機などである。また制御回路25は、メモリ26に駆動部251〜253の制御にかかわる情報を保存する。その情報には、駆動部251〜253の現在の状態に関するものが含まれ、例えば駆動部251〜253のそれぞれがオン状態かスリープ状態かを表す情報が含まれる。   The control circuit 25 controls the plurality of driving units 251 to 253 via the bus 250, for example. The number of drive units varies depending on the function of the operated device 2. The driving units 251 to 253 are, for example, electric motors, actuators, and transmissions. The control circuit 25 stores information related to control of the driving units 251 to 253 in the memory 26. The information includes information regarding the current state of the driving units 251 to 253, and includes, for example, information indicating whether each of the driving units 251 to 253 is in the ON state or the sleep state.

図4に処理装置22のブロック図を示す。処理装置22は、例えば、処理回路221、制御信号生成回路222、予測回路223を含む。端子224は、通信回路21と接続しており、端子225は周辺情報取得回路23と接続しており、端子226はメモリ24と接続しており、端子227は制御回路25と接続している。   FIG. 4 shows a block diagram of the processing device 22. The processing device 22 includes, for example, a processing circuit 221, a control signal generation circuit 222, and a prediction circuit 223. The terminal 224 is connected to the communication circuit 21, the terminal 225 is connected to the peripheral information acquisition circuit 23, the terminal 226 is connected to the memory 24, and the terminal 227 is connected to the control circuit 25.

処理回路221は、入力された信号に応じて通信回路21、周辺情報取得回路23、メモリ24、制御信号生成回路222、予測回路223、制御回路25との間で処理されるべき信号を割り振る。また信号に基づく計算も行う。   The processing circuit 221 allocates a signal to be processed among the communication circuit 21, the peripheral information acquisition circuit 23, the memory 24, the control signal generation circuit 222, the prediction circuit 223, and the control circuit 25 according to the input signal. It also performs calculations based on the signals.

制御信号生成回路222は、通信回路21から端子224を介して処理回路222が取り出した操作信号に基づいて制御信号を生成する。操作信号には、例えば、被操作機器2が次にどちらの方向へどのような速度で移動する、といった指示内容が記述されている。制御信号生成回路222は、このような指示内容を実行するため、どのようなタイミングでどのような駆動力を出すかなどの、駆動部251〜253の具体的な動きを計算し、これら駆動部の制御信号を生成する。   The control signal generation circuit 222 generates a control signal based on the operation signal extracted by the processing circuit 222 from the communication circuit 21 via the terminal 224. The operation signal describes, for example, an instruction that the operated device 2 moves in which direction and at what speed next. The control signal generation circuit 222 calculates specific movements of the driving units 251 to 253, such as what timing and what driving force is to be output, in order to execute such instruction contents, and To generate a control signal.

予測回路223は、周辺情報取得回路23が供給する周辺情報信号に基づいて、操作者が次のどのような指示を出すかを予測する。予測結果は1つではなく、複数でもよい。予測回路223は、予測した結果に基づいて、操作信号と同じ形式の信号である予測操作信号を生成する。予測操作信号は操作信号生成回路12の生成する操作信号と同じ形式で記述されている。したがって、この予測操作信号を制御信号生成回路222に供給すると、制御信号生成回路222は、操作信号の場合と同じように制御信号を生成する。   The prediction circuit 223 predicts, based on the peripheral information signal supplied by the peripheral information acquisition circuit 23, what instruction the operator will give next. The number of prediction results is not limited to one, but may be plural. The prediction circuit 223 generates a predicted operation signal having the same format as the operation signal based on the result of the prediction. The prediction operation signal is described in the same format as the operation signal generated by the operation signal generation circuit 12. Therefore, when this prediction operation signal is supplied to the control signal generation circuit 222, the control signal generation circuit 222 generates a control signal in the same manner as in the case of the operation signal.

予測回路223は、例えば、ニューラルネットワークにより予測を行う。ニューラルネットワークには、ディープラーニングにより予め学習されたパラメータを用いる。学習に使われるデータは、不特定多数の操作者のものでもよいし、特定の操作者に限定したデータを使うようにしてもよい。特定の操作者に限定したデータを使った場合、その操作者に特有の癖などを学習することができる。   The prediction circuit 223 performs prediction using, for example, a neural network. For the neural network, parameters learned in advance by deep learning are used. The data used for learning may be those of an unspecified number of operators, or data limited to a specific operator may be used. When data limited to a specific operator is used, it is possible to learn habits and the like peculiar to the operator.

次に、遠隔操作の処理の流れについて説明する。まず本発明の予測回路223がない場合について、図5を用いて説明する。図5においては、左から右に向かって時間が進むものとする。   Next, the flow of the remote control process will be described. First, a case without the prediction circuit 223 of the present invention will be described with reference to FIG. In FIG. 5, time advances from left to right.

処理40:被操作機器2の周辺情報取得回路23が撮像装置300、センサ232〜235からの周辺情報を取得し、周辺情報信号を処理装置22に供給する。
処理41:処理装置22は周辺情報信号の一部、または全てを通信回路21に供給し、情報網3を通して、操作機器1に送る。
処理42:受信回路13で受信された周辺情報が表示装置14、スピーカ15により操作者に伝えられると、操作者は、次の動作を判断する。操作者はユーザインターフェイス11を用いて指示を入力し、操作信号生成回路12が操作信号を生成する。
処理43:操作信号が通信網3を通して被操作機器2に伝えられる。
処理44:処理装置22において、処理回路221が制御信号生成回路222に操作信号を供給すると、制御信号生成回路222は制御信号を生成する。
処理45:処理装置22は、制御回路25に制御信号を供給する。制御回路25は制御信号をメモリ26に保存し、制御を実行する。
Process 40: The peripheral information acquisition circuit 23 of the operated device 2 acquires the peripheral information from the imaging device 300 and the sensors 232 to 235, and supplies a peripheral information signal to the processing device 22.
Process 41: The processing device 22 supplies a part or all of the peripheral information signal to the communication circuit 21 and sends it to the operating device 1 through the information network 3.
Process 42: When the peripheral information received by the receiving circuit 13 is transmitted to the operator through the display device 14 and the speaker 15, the operator determines the next operation. The operator inputs an instruction using the user interface 11, and the operation signal generation circuit 12 generates an operation signal.
Process 43: The operation signal is transmitted to the operated device 2 through the communication network 3.
Process 44: In the processing device 22, when the processing circuit 221 supplies an operation signal to the control signal generation circuit 222, the control signal generation circuit 222 generates a control signal.
Process 45: The processing device 22 supplies a control signal to the control circuit 25. The control circuit 25 stores the control signal in the memory 26 and executes the control.

図5の処理の流れにおいて、制御信号生成回路222が制御信号を生成するのに時間がかかると、処理44において制御回路25の実行が遅れてしまう。この遅れにより遠隔操作における操作性が悪くなる。したがって制御信号の生成はなるべく短時間で終了するのが望ましい。   In the processing flow of FIG. 5, if it takes time for the control signal generation circuit 222 to generate the control signal, the execution of the control circuit 25 in the processing 44 is delayed. This delay deteriorates operability in remote operation. Therefore, it is desirable that the generation of the control signal be completed in as short a time as possible.

次に本発明の予測回路223がある場合の遠隔操作の流れについて、図6を用いて説明する。図5の場合と同様に、左から右へと時間が進んでいるものとする。   Next, the flow of remote control when the prediction circuit 223 of the present invention is provided will be described with reference to FIG. As in the case of FIG. 5, it is assumed that time advances from left to right.

処理50:被操作機器2の周辺情報取得回路23が撮像装置300、センサ232〜235からの周辺情報を取得し、周辺情報信号を処理装置22に供給する。
処理51:処理装置22は周辺情報信号の一部、または全てを通信回路21、情報網3を通して、操作機器1に送る。
処理52:表示装置14、スピーカ15により、周辺情報が操作者に伝えられると、操作者は、次の動作を判断する。操作者はユーザインターフェイス11を用いて指示を入力する。操作信号生成回路12が操作信号を生成する。
処理53:操作信号が通信網3を通して被操作機器2に伝えられる。
Process 50: The peripheral information acquisition circuit 23 of the operated device 2 acquires the peripheral information from the imaging device 300 and the sensors 232 to 235, and supplies a peripheral information signal to the processing device 22.
Process 51: The processing device 22 sends a part or all of the peripheral information signal to the operating device 1 through the communication circuit 21 and the information network 3.
Process 52: When the peripheral information is transmitted to the operator by the display device 14 and the speaker 15, the operator determines the next operation. The operator inputs an instruction using the user interface 11. The operation signal generation circuit 12 generates an operation signal.
Process 53: An operation signal is transmitted to the operated device 2 through the communication network 3.

処理50〜53までは、上述した処理40〜43と同じ内容である。処理50〜53が行われている間、被操作機器2では処理56〜59が実行されている。これらについて説明する。   The processes 50 to 53 have the same contents as the processes 40 to 43 described above. While the processes 50 to 53 are performed, the processes 56 to 59 are executed in the operated device 2. These will be described.

処理56:処理回路221は端子225を介して周辺情報取得回路23からの周辺情報信号を予測回路223に供給する。予測回路223は、供給された周辺情報信号に基づいて、操作者が次にどのような指示をするかについて、1つ以上の予測を行う。その後、予測に基づいて予測操作信号を生成し、処理回路221に供給する。処理回路221は予測操作信号を、端子226を介してメモリ24に保存する。
処理57:処理回路221は予測回路223が生成した予測操作信号を制御信号生成回路222に供給する。制御信号生成回路222は、予測操作信号に基づいて第1の制御信号を生成し、処理回路221に供給する。処理回路221はそれを、端子226を介してメモリ24に保存する。
処理58:処理回路221は制御回路25を通じて駆動部251〜253の状態について確認する。上述の通り、制御回路25はメモリ26に保存してある、駆動部251〜253の状態に関する情報を、端子227を介して処理回路221に供給する。処理回路221は、処理57において得られた予測操作信号に基づいて生成された第1の制御信号と、駆動部251〜253の状態に関する情報とを比較する。
処理59:処理回路221は、処理58における比較の結果、処理57において生成された制御信号をすぐに実行できない状態の駆動部があれば、駆動部の準備をするように制御回路25に指示を出す。
Process 56: The processing circuit 221 supplies the peripheral information signal from the peripheral information acquisition circuit 23 to the prediction circuit 223 via the terminal 225. The prediction circuit 223 performs one or more predictions as to what instruction the operator will give next based on the supplied peripheral information signal. After that, a prediction operation signal is generated based on the prediction and supplied to the processing circuit 221. The processing circuit 221 stores the prediction operation signal in the memory 24 via the terminal 226.
Process 57: The processing circuit 221 supplies the prediction operation signal generated by the prediction circuit 223 to the control signal generation circuit 222. The control signal generation circuit 222 generates a first control signal based on the prediction operation signal, and supplies the first control signal to the processing circuit 221. The processing circuit 221 stores it in the memory 24 via the terminal 226.
Process 58: The processing circuit 221 checks the state of the driving units 251 to 253 through the control circuit 25. As described above, the control circuit 25 supplies the information on the states of the driving units 251 to 253 stored in the memory 26 to the processing circuit 221 via the terminal 227. The processing circuit 221 compares the first control signal generated based on the prediction operation signal obtained in the process 57 with information on the states of the driving units 251 to 253.
Process 59: As a result of the comparison in process 58, if there is a drive unit that cannot immediately execute the control signal generated in process 57, the process circuit 221 instructs the control circuit 25 to prepare the drive unit. put out.

処理59において、制御信号をすぐに実行できない状態には、当該駆動部の電源がオンになっていない、スリープ状態の場合が含まれる。スリープ状態の駆動部を動かす場合、すでにオン状態の場合に比べて動作開始までに時間がかかり、その分遅延が発生する。したがって使う可能性のある駆動部については、予め電源を供給しオン状態にするよう制御回路25に指示を出す。   In the process 59, the state in which the control signal cannot be immediately executed includes a case where the power of the driving unit is not turned on and the driving unit is in a sleep state. When the drive unit in the sleep state is moved, it takes longer time to start the operation than in the case where the drive unit is already in the on state, and a delay is generated accordingly. Therefore, the control circuit 25 is instructed to supply power in advance and turn on the driving unit which may be used.

なお、処理56〜59は、処理50から、操作機器1から操作信号が送られてくる処理53の時間までには終了している。次に処理53以降の処理の流れについて説明する。   The processes 56 to 59 have been completed by the time from the process 50 to the process 53 when the operation signal is transmitted from the operation device 1. Next, the flow of the processing after the processing 53 will be described.

処理54:処理回路221は、例えば、通信網3と通信回路21を通じて端子224を介して操作機器1から送られてきた操作信号とメモリ24に保存された予測操作信号とを比較し、もっとも近い第1の予測信号を選択する。操作信号と第1の予測操作信号の誤差が、例えば第1の誤差範囲内にある場合には、処理回路221は第1の制御信号を制御回路25に供給する。この誤差範囲が、例えば第1の誤差範囲よりも大きいが第2の誤差範囲内にある場合には、処理回路221は補正計算を行い、第1の制御信号を補正した第2の制御信号を生成し、第2の制御信号を制御回路25に供給する。この誤差範囲が、例えば第2の誤差範囲よりも大きい場合には、処理回路221は、操作信号を制御信号生成回路222に供給し、この操作信号に基づいて制御信号生成回路222が生成した第3の制御信号を制御回路25に供給する。なお、第1と第2の誤差範囲は、予め設定されているものとする。
処理55:制御回路25は得られた第1〜第3の制御信号のいずれかに従って、駆動部251〜253を制御する。
Process 54: The processing circuit 221 compares, for example, the operation signal sent from the operation device 1 via the terminal 224 through the communication network 3 and the communication circuit 21 with the predicted operation signal stored in the memory 24, and Select the first prediction signal. When the error between the operation signal and the first prediction operation signal is, for example, within a first error range, the processing circuit 221 supplies a first control signal to the control circuit 25. When the error range is larger than the first error range but is within the second error range, the processing circuit 221 performs a correction calculation and generates a second control signal obtained by correcting the first control signal. And supplies the second control signal to the control circuit 25. When the error range is larger than the second error range, for example, the processing circuit 221 supplies the operation signal to the control signal generation circuit 222, and the control signal generation circuit 222 generates the operation signal based on the operation signal. 3 is supplied to the control circuit 25. Note that the first and second error ranges are set in advance.
Process 55: The control circuit 25 controls the driving units 251 to 253 according to any of the obtained first to third control signals.

以上説明したように、本発明の処理装置22は、操作者の指示を予測し、予測に従って予め第1の制御信号を用意しておき、第1の制御信号を制御回路25に供給するので、予測が正しかった場合には、実行までの時間を短くすることができ、遠隔操作の操作性を改善することができる。   As described above, the processing device 22 of the present invention predicts the instruction of the operator, prepares the first control signal in advance according to the prediction, and supplies the first control signal to the control circuit 25. When the prediction is correct, the time until execution can be shortened, and the operability of remote operation can be improved.

また、本発明の処理装置22は、操作信号と予測操作信号とを比較し、上述のように近似している場合には、補正計算を行い、第1の制御信号を補正した第2の制御信号を生成し、第2の制御信号を制御回路25に供給するので、操作信号から制御信号を最初から生成する場合よりも制御信号を生成して実行するまでの時間を短くでき、遠隔操作の操作性を改善することができる。   Further, the processing device 22 of the present invention compares the operation signal with the predicted operation signal, and when the operation signal is approximated as described above, performs a correction calculation and corrects the first control signal to obtain the second control signal. Since the signal is generated and the second control signal is supplied to the control circuit 25, the time from generation of the control signal to execution of the control signal can be shortened as compared with the case where the control signal is generated from the operation signal from the beginning. Operability can be improved.

また処理装置22は、予測に基づいて生成された第1の制御信号と、駆動部251〜253の状態を比較し、駆動部251〜253がすぐに第1の制御信号を実行できるように準備をするよう制御回路25に指示するので、実行までの時間を短くすることができ、操作性を改善できる。ここで、第2の制御信号について考えると、第2の制御信号は第1の制御信号を補正したものであり、実行内容が似ている。したがってこの処理装置22の第1の制御信号に基づいて行う制御回路25への準備の指示は、第2の制御信号を実行する場合にも効果が大きい、と考えられる。   Further, the processing device 22 compares the first control signal generated based on the prediction with the states of the driving units 251 to 253, and prepares the driving units 251 to 253 to immediately execute the first control signal. Since the control circuit 25 is instructed to perform the operation, the time until the execution can be shortened, and the operability can be improved. Here, considering the second control signal, the second control signal is obtained by correcting the first control signal, and the execution contents are similar. Therefore, it is considered that the instruction of the preparation to the control circuit 25 performed by the processing device 22 based on the first control signal has a large effect even when the second control signal is executed.

ところで、予測回路223が正しく予測処理を行うためには、正確かつ適切な周辺情報が必要であり、映像から周辺状況を認識する方法が有効である。映像から認識された周辺情報を認識結果として周辺情報取得回路23を介して予測回路223に供給することが望ましい。そこで、単に映像を取得するだけでなく画像認識を行う撮像装置300について説明する。   By the way, in order for the prediction circuit 223 to perform a prediction process correctly, accurate and appropriate peripheral information is necessary, and a method of recognizing a peripheral situation from a video is effective. It is desirable that the peripheral information recognized from the video be supplied to the prediction circuit 223 via the peripheral information acquisition circuit 23 as a recognition result. Therefore, an imaging apparatus 300 that performs image recognition as well as simply acquiring a video will be described.

図7は本発明による処理装置の予測装置が利用するために好適な撮像装置300の構成を示している。   FIG. 7 shows a configuration of an imaging device 300 suitable for use by the prediction device of the processing device according to the present invention.

撮像装置300は、レンズ301と、撮像素子302と、映像信号処理部330と、画像認識部340とを備える。撮像素子302はCCDまたはCMOSセンサであり、図示されないADC(Analog to Digital Convertor)を備え、1フレーム内に赤(R)、緑(G)、青(B)の画素が所定の配列で配置されたデジタルのRAWデータを複数フレーム出力する。撮像素子302が出力するRAWデータは映像信号処理部330と画像認識部340とにそれぞれ供給される。   The imaging device 300 includes a lens 301, an imaging element 302, a video signal processing unit 330, and an image recognition unit 340. The image sensor 302 is a CCD or a CMOS sensor, and includes an ADC (Analog to Digital Converter) (not shown). Red (R), green (G), and blue (B) pixels are arranged in a predetermined array in one frame. The digital RAW data is output in a plurality of frames. The RAW data output from the image sensor 302 is supplied to the video signal processing unit 330 and the image recognition unit 340, respectively.

映像信号処理部330は、人間の目で見て不自然とならないよう調整した映像を生成することを目的として設けられている。映像信号処理部330は、表示用の映像信号としてYUV信号を、バス230に出力する。   The video signal processing unit 330 is provided for the purpose of generating a video adjusted so as not to be unnatural when viewed by human eyes. The video signal processing unit 330 outputs a YUV signal to the bus 230 as a video signal for display.

画像認識部340は、RAWデータから後述する情報を得ることを目的として設けられている。具体的には、画像認識部340は、画像における所定の特徴を抽出し、画像として表示されていない部分を推定し、また数フレーム後の状態を推定する。つまり、画像認識部340は、撮像装置300内で映像信号処理部330による映像信号処理と並行して画像における特徴を抽出し、その特徴に関する情報を認識し、認識した結果をバス230に出力する。   The image recognition unit 340 is provided for the purpose of obtaining information described later from the RAW data. Specifically, the image recognition unit 340 extracts a predetermined feature in the image, estimates a portion that is not displayed as an image, and estimates a state after several frames. That is, the image recognition unit 340 extracts a feature in an image in the imaging device 300 in parallel with the video signal processing by the video signal processing unit 330, recognizes information about the feature, and outputs the recognized result to the bus 230. .

図8を用いて、撮像装置300についてさらに詳細に説明する。   The imaging device 300 will be described in more detail with reference to FIG.

映像信号処理部330は、例えば、白傷補正回路331、シェーディング補正回路332、デモザイク回路333、補正回路334、色空間処理回路335を有する。映像信号処理部330は、撮像素子302から供給されたRAWデータを所定の順に処理し、画像信号を生成する。   The video signal processing unit 330 includes, for example, a white defect correction circuit 331, a shading correction circuit 332, a demosaic circuit 333, a correction circuit 334, and a color space processing circuit 335. The video signal processing unit 330 processes the RAW data supplied from the image sensor 302 in a predetermined order to generate an image signal.

白傷補正回路331は、例えば、注目画素の信号レベルが周辺画素レベルよりも格段に大きい場合に、注目画素が白傷であると判断して、その画素の信号レベルを周辺の画素信号から補間する。   For example, when the signal level of the target pixel is much higher than the peripheral pixel level, the white defect correction circuit 331 determines that the target pixel is a white defect and interpolates the signal level of the pixel from the peripheral pixel signals. I do.

シェーディング補正回路332は、例えば、主にレンズなどの光学的な特性により平坦な輝度の被写体を撮影しても画像周辺部の信号レベルが中央付近の信号レベルと異なっている場合に、信号レベルが画像全体で平坦になるように信号レベルを補正する。   For example, the shading correction circuit 332 determines the signal level when the signal level in the peripheral part of the image is different from the signal level near the center even when an image of an object having flat luminance is mainly photographed due to optical characteristics such as a lens. The signal level is corrected so that the entire image becomes flat.

デモザイク回路333は、例えば、カラーフィルタが所定の規則で並んでいる場合に、1フレーム内で各色信号を全画素に割り当てた画像信号を生成する。カラーフィルタの配列は、例えば、一般的にはR、G、Bのカラーフィルタを用いたベイヤ配列になっている。またカラーフィルタを持たず、可視光から近赤外まで感度を持つ画素を含む配列になっていることもある。このような画素は、後述する通り白(ホワイト)と呼ばれることがある。   The demosaic circuit 333 generates, for example, an image signal in which each color signal is assigned to all pixels in one frame when the color filters are arranged according to a predetermined rule. The color filter array is, for example, generally a Bayer array using R, G, and B color filters. Further, there is a case where an array including pixels having no color filter and having sensitivity from visible light to near infrared is provided. Such a pixel may be called white as described later.

補正回路334は画像の各種特性を補正する。この補正には、例えば、ホワイトバランス、輪郭補正、ガンマ補正が含まれる。ホワイトバランスとは、白の被写体においてR、G、Bの各信号が同じ大きさになるように調整することである。輪郭補正とは、解像感を改善するために輪郭部の信号を強調することである。ガンマ補正とは、例えば、映像表示部200等のモニタで表示するときの輝度レベルが線形になるように、予めモニタ特性に合わせて補正しておくことである。   The correction circuit 334 corrects various characteristics of the image. This correction includes, for example, white balance, contour correction, and gamma correction. The white balance is to adjust the R, G, and B signals so that they have the same magnitude in a white subject. The contour correction is to emphasize the signal of the contour part in order to improve the resolution. The gamma correction refers to, for example, performing correction in advance according to monitor characteristics so that the luminance level when displayed on a monitor such as the video display unit 200 becomes linear.

色空間処理回路335は、例えば、R、G、Bの3色の信号を輝度(Y)と色差信号に変換する。この後、色相を調整するために、色差信号が補正されることもある。   The color space processing circuit 335 converts, for example, signals of three colors of R, G, and B into luminance (Y) and color difference signals. Thereafter, the color difference signal may be corrected to adjust the hue.

また、色空間処理回路335はノイズリダクション処理を行うこともある。例えば複数フレームの画像を加算して、ノイズを減らすなどの処理を行う。このような複数フレームを用いた処理をする場合には、色空間処理回路335は、使用する複数フレームが全て色空間処理回路335に入力されるのを待ってから処理を行う。   Further, the color space processing circuit 335 may perform a noise reduction process. For example, processing such as adding noise of a plurality of frames to reduce noise is performed. When performing processing using such a plurality of frames, the color space processing circuit 335 waits until all of the plurality of frames to be used are input to the color space processing circuit 335 before performing the processing.

さらに、色空間処理回路335は色差信号を圧縮してU信号及びV信号を生成し、YUV信号を生成する。このような処理を経て得られたYUV信号は端子350から映像信号として出力される。   Further, the color space processing circuit 335 compresses the color difference signal to generate a U signal and a V signal, and generates a YUV signal. The YUV signal obtained through such processing is output from the terminal 350 as a video signal.

撮像素子302のRAWデータは画像認識部340にも供給される。画像認識部340は、例えば、輝度画像生成部341、静的フィルタ部342、輝度情報メモリ343及び344、動的フィルタ部345、輝度画像認識部346、色画像認識部347、認識結果送信部348を含む。   The RAW data of the image sensor 302 is also supplied to the image recognition unit 340. The image recognition unit 340 includes, for example, a luminance image generation unit 341, a static filter unit 342, luminance information memories 343 and 344, a dynamic filter unit 345, a luminance image recognition unit 346, a color image recognition unit 347, and a recognition result transmission unit 348. including.

画像認識部340の構成のうち輝度画像生成部341から輝度画像認識部346は、輝度信号を処理する。画像認識部340では処理のほとんどが輝度情報をもとに行われる。色画像認識部347は色空間処理回路335からの映像信号に基づいて色画像を判断する。認識結果送信部348は輝度画像認識部346と色画像認識部347の認識結果に基づいて認識結果信号を生成する。認識結果信号は端子351から出力される。   Among the components of the image recognition unit 340, the brightness image generation unit 341 to the brightness image recognition unit 346 process the brightness signal. Most of the processing in the image recognition unit 340 is performed based on luminance information. The color image recognition unit 347 determines a color image based on a video signal from the color space processing circuit 335. The recognition result transmission unit 348 generates a recognition result signal based on the recognition results of the luminance image recognition unit 346 and the color image recognition unit 347. The recognition result signal is output from the terminal 351.

輝度画像生成部341について述べる。輝度画像生成部341はRAWデータから輝度情報を取り出す。もっとも単純な輝度画像生成方法として、例えば、ベイヤ配列の場合、Gのカラーフィルタのついた画素の信号だけを用いるという方法がある。あるいは、ホワイトと呼ばれるカラーフィルタがない画素は純粋に輝度のみを扱っているので、ホワイトの画素信号を用いるという方法もある。   The luminance image generation unit 341 will be described. The luminance image generation unit 341 extracts luminance information from the RAW data. As a simplest method of generating a luminance image, for example, in the case of a Bayer array, there is a method of using only a signal of a pixel with a G color filter. Alternatively, there is a method of using a white pixel signal because a pixel without a color filter called white handles pure luminance only.

ここでは撮像素子302がベイヤ配列であり、Gの画素信号を用いる場合を説明する。通常、デモザイク処理における輝度信号はGだけでなくR及びBの画素信号も用いて生成されるので、解像度は本来の解像度の0.7〜0.8倍程度ある。しかしながら、Gのみの画素信号では、R及びBの画素信号を用いることができず、解像度は0.5倍程度に劣化する。   Here, a case will be described in which the image sensor 302 has a Bayer array and uses G pixel signals. Normally, since the luminance signal in the demosaic processing is generated using not only G but also R and B pixel signals, the resolution is about 0.7 to 0.8 times the original resolution. However, the pixel signal of only G cannot use the pixel signals of R and B, and the resolution is reduced to about 0.5 times.

人間が見るための映像であれば、このような解像度劣化は映像品質に大きな影響を与えるので重大な問題となる。しかしながら画像認識をすることが目的の場合には、解像度劣化が必ずしも重要な問題とは限らないので、影響が少ない。その理由については後述する。   In the case of an image that can be viewed by a human, such a deterioration in resolution has a serious problem because it greatly affects the image quality. However, when the purpose is to perform image recognition, resolution degradation is not always an important problem, so that the influence is small. The reason will be described later.

上述の通り、ベイヤ配列のGの画素信号だけを用いるとR及びBの画素には信号がなくなってしまうので輝度画像生成部341は、抜けた画素部分の周辺の4つのGの画素信号を単純平均して画素を補間する。   As described above, if only the G pixel signals in the Bayer array are used, the R and B pixels have no signal. Therefore, the luminance image generation unit 341 simply converts the four G pixel signals around the missing pixel portion. Interpolate pixels on average.

また上述したように白傷があれば、白傷補正回路331はこれを補正する。通常は見た目を重視するのでGだけでなくR及びBの画素信号も用いて白傷補正が行われるがここでは輝度画像生成部341は隣接するGの画素信号のみを使って補正する。このように輝度画像生成部341は通常より少ない輝度信号の情報を用いることによって処理が高速になる。即ち、解像度よりもこの信号処理の速さを重視して単純な処理で輝度画像を生成する。   If there is a white flaw as described above, the white flaw correction circuit 331 corrects this. Normally, emphasis is placed on appearance, so that white defect correction is performed using not only G but also R and B pixel signals, but here, the luminance image generation unit 341 performs correction using only adjacent G pixel signals. As described above, the luminance image generating unit 341 performs processing at high speed by using information of a luminance signal which is smaller than usual. That is, a luminance image is generated by a simple process, placing importance on the speed of the signal processing over the resolution.

輝度画像生成部341が生成した輝度画像は静的フィルタ部342と輝度情報メモリ343に供給される。   The luminance image generated by the luminance image generation unit 341 is supplied to the static filter unit 342 and the luminance information memory 343.

静的フィルタ部342について説明する。静的フィルタ部342は、動きのない1フレームの輝度画像から特徴を抽出するためのフィルタ処理を行う。ここで行うフィルタ処理とは主に畳み込み処理やプーリング処理である。畳み込み処理とは画像を滑らかにしたりシャープにしたりする処理である。プーリング処理とはこのような畳み込みを行った結果を再サンプリングする処理である。   The static filter unit 342 will be described. The static filter unit 342 performs a filtering process for extracting a feature from a one-frame luminance image without motion. The filtering process performed here is mainly a convolution process and a pooling process. The convolution processing is processing for smoothing or sharpening an image. The pooling process is a process of resampling the result of such convolution.

このような処理は抽出すべき特徴だけを残して情報を削っていくことに相当する。このように情報を削っていく処理を含んでいるので、輝度画像が持つ情報量がある程度少なくても、静的フィルタ部342による特徴抽出にあまり影響を与えない。したがって輝度画像生成部341は、輝度画像の生成に解像度の劣化を伴う単純な方法が使える。   Such processing is equivalent to deleting information while leaving only the features to be extracted. Since the processing for removing information is included as described above, even if the amount of information included in the luminance image is small to some extent, the feature extraction by the static filter unit 342 is not significantly affected. Therefore, the luminance image generation unit 341 can use a simple method that involves degradation of resolution in generating a luminance image.

また静的フィルタ部342は抽出する特徴ごとに異なるフィルタを有し、それらを並列で動作させる。それらの異なるフィルタは、例えばニューラルネットワークのディープラーニングにより予め学習済みで、パラメータがチューニングされている。   The static filter unit 342 has different filters for each feature to be extracted, and operates them in parallel. These different filters are pre-trained, for example, by deep learning of a neural network, and the parameters are tuned.

静的フィルタ部342により抽出された結果は、輝度情報メモリ343と輝度画像認識部346にそれぞれ供給される。   The result extracted by the static filter unit 342 is supplied to the luminance information memory 343 and the luminance image recognition unit 346, respectively.

なお、撮像装置300では、フィルタのパラメータの再チューニング(再学習)は行わない。もし再チューニングを行うと、複数の撮像装置300があった場合、個々の撮像装置300の特性が時間とともに変化し、定常の状態から乖離していくからである。フィルタのパラメータは、バージョンアップという形で外部から与えられる場合のみ変化する。   Note that the imaging device 300 does not perform re-tuning (re-learning) of the filter parameters. This is because, if retuning is performed, when there are a plurality of imaging devices 300, the characteristics of each imaging device 300 change with time and deviate from a steady state. Filter parameters change only when provided externally in the form of a version upgrade.

静的フィルタ部342では例えば次のような特徴を抽出する。
・形状抽出:特定の形状を抽出する。形状には、縦線、横線、斜め線、角度、鋭角のピーク、四角、丸、三角、などが含まれる。
・重要物体抽出:人体、車、動物、標識などの重要物体を抽出する。本実施形態によれば、全体が見えていなくても部分が見えているだけで特徴の抽出は可能である。
・文字、記号抽出:文字または記号があるかどうかを抽出する。
・静的輪郭抽出:静的画像で輝度が急激に変わるところを抽出する。
・消失点抽出:遠近を比較するために用いられる。
The static filter unit 342 extracts, for example, the following features.
Shape extraction: Extract a specific shape. The shape includes a vertical line, a horizontal line, an oblique line, an angle, a peak with an acute angle, a square, a circle, a triangle, and the like.
・ Important object extraction: Extract important objects such as human body, car, animal, and sign. According to the present embodiment, it is possible to extract a feature only when a part is visible even when the whole is not visible.
Character / symbol extraction: Extracts whether there is a character or a symbol.
-Static contour extraction: Extract a place where luminance changes rapidly in a static image.
-Vanishing point extraction: Used to compare perspective.

輝度情報メモリ343には輝度画像生成部341からの最新の輝度画像と静的フィルタ部342の抽出結果とが書き込まれる。書き込まれた最新の輝度画像及び抽出結果は次のフレームの輝度画像及び抽出結果が輝度情報メモリ343に書き込まれる前に輝度情報メモリ344に移される。こうして輝度情報メモリ344には少なくとも1フレーム前の情報が記憶されている。   The latest luminance image from the luminance image generation unit 341 and the extraction result of the static filter unit 342 are written in the luminance information memory 343. The written latest luminance image and the extraction result are moved to the luminance information memory 344 before the luminance image and the extraction result of the next frame are written to the luminance information memory 343. Thus, the luminance information memory 344 stores information of at least one frame before.

なお、静的フィルタ部342による輝度画像からの特徴の抽出は、輝度画像生成部341から輝度画像の供給が完了するのを待ってから行う必要はなく、輝度画像を供給中でも、すでに供給された輝度画像の一部分に対して行うことが可能である。   Note that the feature extraction from the luminance image by the static filter unit 342 need not be performed after the supply of the luminance image from the luminance image generation unit 341 is completed. This can be performed on a part of the luminance image.

動的フィルタ部345は、輝度情報メモリ343からの情報と輝度情報メモリ344からの少なくとも1フレーム前の情報とを比較することで、動きに関連する特徴を抽出する。このような動きに関連した特徴抽出は例えば次のようなものである。
・塊抽出:同じような動きをする画素の集まりを抽出する。
・動的輪郭抽出:塊抽出でひとつの塊を抽出したときに塊の境界を輪郭として抽出する。動的輪郭抽出は、背景と塊が同じような輝度を持っている場合、静的画像から輪郭を抽出しにくい場合に有効である。
・動き方向抽出:塊の動く方向を抽出する。
・動き方特徴抽出:特定の動き方を抽出する。例えば、動的フィルタ部345は、回転運動、人が歩いている動き、ボールが弾んで転がる動き、鳥が飛ぶ動きなど、特定の特徴ある動きがあるかどうかを抽出する。
The dynamic filter unit 345 extracts a feature related to motion by comparing information from the luminance information memory 343 with information from at least one frame before from the luminance information memory 344. The feature extraction related to such movement is, for example, as follows.
-Lump extraction: A group of pixels that move in the same way is extracted.
Active contour extraction: When one lump is extracted by lump extraction, a lump boundary is extracted as a contour. The dynamic contour extraction is effective when the background and the block have the same luminance, or when it is difficult to extract the contour from the static image.
-Movement direction extraction: The movement direction of the lump is extracted.
Movement feature extraction: Extract a particular movement. For example, the dynamic filter unit 345 extracts whether or not there is a specific characteristic motion such as a rotational motion, a walking motion of a person, a bouncing motion of a ball, and a flying motion of a bird.

動的フィルタ部345は、例えば、ニューラルネットワークのディープラーニングにより予め学習済みの、パラメータがチューニングされたフィルタを用いる。また、動的フィルタ部345は、抽出する特徴ごとに異なるフィルタを有し、それらを並列で動作させる。   The dynamic filter unit 345 uses, for example, a filter whose parameters have been tuned and learned in advance by deep learning of a neural network. Further, the dynamic filter unit 345 has different filters for each feature to be extracted, and operates them in parallel.

静的フィルタ部342または動的フィルタ部345で抽出された特徴は、輝度画像認識部346に供給される。輝度画像認識部346は抽出された複数の特徴をまとめ、輝度画像の内容を認識する。例えば、静的フィルタ部342で人と抽出された物体が、動的フィルタ部345の抽出した結果においてひと塊の物体として動いているか、動き方の特徴が人特有の動き方であるかなど、複数の特徴が一致しているかを確認し、輝度画像認識部346はその物体を人と認識する。このように、複数の特徴から確認することで、輝度画像認識部346は認識の確からしさを高め、例えば人形を人間と誤認識する確率を下げる。   The features extracted by the static filter unit 342 or the dynamic filter unit 345 are supplied to the luminance image recognition unit 346. The luminance image recognition unit 346 collects the extracted features and recognizes the content of the luminance image. For example, whether the object extracted as a person by the static filter unit 342 is moving as a lump of objects in the result extracted by the dynamic filter unit 345, whether the feature of the movement is a person-specific movement, and the like. After confirming whether the plurality of features match, the luminance image recognition unit 346 recognizes the object as a person. As described above, by confirming from a plurality of features, the luminance image recognizing unit 346 increases the certainty of the recognition and lowers the probability that the doll is erroneously recognized as a human, for example.

また輝度画像認識部346は様々な推定作業を行う。輝度画像認識部346は例えば次のような推定を行う。
・前後関係の推定:ある塊の物体同士がどのような前後関係にあるのかを推定する。
・自分の動きの推定:自分が動いているかどうかなどの周囲との相対関係について推定する。
・塊の前後方向(奥行き方向)の動きの推定。
・隠れている部分の推定:例えば直線状のものが隠れている場合、見えている部分が延長されていると推定する。認識している対象が一時的に隠れて見えなくなった場合でも、対象がそこにあると推定する。
・未来の状態の推定(予測):動きの推定結果から数フレーム後にどのような位置関係になっているかを推定する。また、輝度画像認識部346は数フレーム後の位置関係が推定結果通りになっているか確認する。
The luminance image recognition unit 346 performs various estimation operations. The luminance image recognition unit 346 performs, for example, the following estimation.
-Estimation of context: Estimate the context of objects in a certain lump.
-Estimation of own movement: Estimate the relative relationship with the surroundings, such as whether or not you are moving.
-Estimation of the movement of the mass in the front-back direction (the depth direction).
Estimation of a hidden part: For example, when a linear object is hidden, it is estimated that the visible part is extended. Even if the recognized target is temporarily hidden and cannot be seen, it is assumed that the target is there.
Estimation (prediction) of future state: Estimate what kind of positional relationship will be after several frames from the estimation result of motion. Further, the luminance image recognition unit 346 checks whether the positional relationship after several frames is as estimated.

上述したような推定をすることで、輝度画像認識部346は、例えば次のような認識が可能になる。物体Aが移動して物体Bの陰に隠れて見えなくなった場合、物体Aが見えてはいないが物体Bの陰にあると認識する。また、一定時間後に物体Aが物体Bの反対側から出てくると推定し、そして実際に出てくるかどうかを確認する。   By performing the above estimation, the luminance image recognition unit 346 can perform, for example, the following recognition. When the object A moves and disappears behind the object B, it is recognized that the object A is not visible but is behind the object B. Further, it is estimated that the object A comes out from the opposite side of the object B after a predetermined time, and it is confirmed whether or not it actually comes out.

次に色情報の認識について説明する。色情報の認識とは、例えば交通信号機の発する色に関する認識である。静的フィルタ部342が信号機を抽出したとしても、何色の信号が光っているかは輝度画像からは分からないので、色情報の認識が必要な場合がある。しかしながら色情報を通常の映像信号の処理のように高速で処理する必要性は輝度情報に比べて低いので、本実施形態では色空間処理回路335の結果を待って色情報を処理する構成としている。   Next, recognition of color information will be described. Recognition of color information is, for example, recognition of a color emitted by a traffic light. Even if the static filter unit 342 extracts the traffic light, it is not known from the luminance image how many signals are illuminated, so that color information may need to be recognized. However, since the necessity of processing color information at high speed as in the case of processing a normal video signal is lower than that of luminance information, the present embodiment is configured to wait for the result of the color space processing circuit 335 and process the color information. .

もちろん、色情報にフレーム遅れがあると問題になる場合には、輝度信号の場合と同様に、映像信号処理と並列処理を行ってもよい。その場合はデモザイク処理などを行わず、直接各色(通常はR、G、Bの3色)のRAWデータから特徴を抽出する構成とすることが好ましい。   Of course, if there is a problem if there is a frame delay in the color information, the video signal processing and the parallel processing may be performed as in the case of the luminance signal. In that case, it is preferable that the feature is directly extracted from the RAW data of each color (normally, three colors of R, G, and B) without performing demosaicing.

輝度画像認識部346と色画像認識部347の認識結果は、認識結果送信部348に送られ、予め決められたプロトコルにしたがって端子351から認識結果信号として送信される。輝度画像認識部346と色画像認識部347からは膨大な認識結果が送られてくるので、認識結果送信部348は認識結果を選択し、送信の順序を設定する。   The recognition results of the luminance image recognizing unit 346 and the color image recognizing unit 347 are sent to the recognition result transmitting unit 348, and are transmitted from the terminal 351 as a recognition result signal according to a predetermined protocol. Since a huge amount of recognition results are sent from the luminance image recognition unit 346 and the color image recognition unit 347, the recognition result transmission unit 348 selects the recognition results and sets the transmission order.

認識結果送信部348での認識結果の選択の方法または基準は、制御すべき機器の特徴に合わせればよい。   The method or reference for selecting the recognition result in the recognition result transmitting unit 348 may be adjusted to the characteristics of the device to be controlled.

なお、端子350及び351はシリアルバス端子でもパラレルバス端子でもよい。   Note that the terminals 350 and 351 may be serial bus terminals or parallel bus terminals.

次に、輝度画像認識部346が画像をどのように認識しているかの例を示す。図9は撮像装置300が端子350から出力する映像信号のある1フレームの画像60である。この画像60について輝度画像認識部346の認識結果は例えば次の通りである。   Next, an example of how the luminance image recognition unit 346 recognizes an image will be described. FIG. 9 is an image 60 of one frame including a video signal output from the terminal 350 by the imaging device 300. The recognition result of this image 60 by the luminance image recognition unit 346 is, for example, as follows.

静的フィルタ部342は物体62と物体66から人間の特徴を抽出し輝度画像認識部346に報告している。一方、動的フィルタ部345は物体62及び66がひと塊として動いていることを輝度画像認識部346に報告しており、また動き方も人間の歩き方であると報告している。すべての報告に矛盾がないので、輝度画像認識部346は物体62及び66が人間であると認識する。   The static filter unit 342 extracts a human feature from the object 62 and the object 66 and reports it to the luminance image recognition unit 346. On the other hand, the dynamic filter unit 345 reports to the luminance image recognizing unit 346 that the objects 62 and 66 are moving as a lump, and reports that the manner of movement is human walking. Since all reports are consistent, the luminance image recognition unit 346 recognizes that the objects 62 and 66 are human.

静的フィルタ部342は消失点65を抽出しており、この消失点65から輝度画像認識部346は物体62及び66の遠近に関する位置関係を認識している。また動的フィルタ部345の報告する物体62及び66の移動速度、移動方向から、輝度画像認識部346は物体62及び66の現在と将来のおおよその位置関係を推定している。   The static filter unit 342 extracts the vanishing point 65, and from this vanishing point 65, the luminance image recognition unit 346 recognizes the positional relationship between the objects 62 and 66 in terms of distance. Also, the luminance image recognition unit 346 estimates the approximate current and future positional relationship of the objects 62 and 66 from the moving speeds and moving directions of the objects 62 and 66 reported by the dynamic filter unit 345.

さらには、輝度画像認識部346は、物体66と物体68の前後関係の推定から、物体66が物体68の背後にあることを認識している。また、輝度画像認識部346は、移動方向の認識から、物体66が物体68から出てきていることを認識している。また、輝度画像認識部346は、物体66が人間であると認識しているので、物体68の陰に見えていない人体の一部67があることも認識しており、一定時間後に人体の一部67が見えるであろうことを予測している。   Furthermore, the luminance image recognition unit 346 recognizes that the object 66 is behind the object 68 from the estimation of the context of the object 66 and the object 68. Further, the luminance image recognition unit 346 recognizes that the object 66 has come out of the object 68 from the recognition of the moving direction. Further, since the luminance image recognition unit 346 recognizes that the object 66 is a human, it also recognizes that there is a part 67 of the human body that is not visible behind the object 68, and after a certain time, the human body 1 Predict that part 67 will be visible.

道路の端を示す線64は一部が物体62の陰に隠れているが、輝度画像認識部346は見えないところにも線が続いていると仮定するので、破線63が存在すると推定しており、物体62の移動にともなって破線63が実際に現れることを推定している。   Although the line 64 indicating the end of the road is partially hidden behind the object 62, the luminance image recognition unit 346 assumes that the line continues even where it cannot be seen. It is estimated that the broken line 63 actually appears as the object 62 moves.

また、静的フィルタ部342は物体61から物体61の形状の特徴を抽出するとともに、標識としての特徴抽出も行っているので、輝度画像認識部346はそのような認識結果を認識結果送信部348に送る。標識の場合は色情報が重要である場合が多いので、認識結果送信部348は、輝度画像認識部346の結果と一緒に、色画像認識部347の認識した物体61の各部の色を、バス230を介して周辺情報取得回路23に報告している。   Further, since the static filter unit 342 extracts features of the shape of the object 61 from the object 61 and also extracts features as markers, the luminance image recognition unit 346 transmits such a recognition result to the recognition result transmitting unit 348. Send to In the case of a sign, since color information is often important, the recognition result transmission unit 348 transmits the color of each part of the object 61 recognized by the color image recognition unit 347 together with the result of the luminance image recognition unit 346 to the bus. The information is reported to the peripheral information acquisition circuit 23 via 230.

このように撮像装置300は映像信号処理と並行して画像認識の処理を実行し、映像信号と認識結果信号とを略同時に出力することを特徴としている。   As described above, the imaging apparatus 300 performs image recognition processing in parallel with video signal processing, and outputs a video signal and a recognition result signal substantially simultaneously.

周辺情報取得回路23は、映像信号と認識結果信号を含めて周辺情報信号を生成し、処理回路22に供給する。したがって、予測回路223は、処理回路221を介して供給された撮像装置300から映像信号と同時に認識結果信号を受け取り、予測に活用する。予測回路223は、映像信号の認識処理を行わなくても済むので、映像信号だけを受け取る場合より予測を終了するまでの時間を短くできる。あるいは、同じ処理時間でもより正確な予測ができる。したがって、撮像装置300を使用することにより、遠隔操作の操作性をさらに改善することができる。   The peripheral information acquisition circuit 23 generates a peripheral information signal including the video signal and the recognition result signal, and supplies the generated peripheral information signal to the processing circuit 22. Therefore, the prediction circuit 223 receives the recognition result signal at the same time as the video signal from the imaging device 300 supplied via the processing circuit 221 and uses the signal for prediction. Since the prediction circuit 223 does not need to perform the video signal recognition process, the time until the prediction is completed can be shorter than when only the video signal is received. Alternatively, more accurate prediction can be made even with the same processing time. Therefore, the operability of remote operation can be further improved by using the imaging device 300.

なお、本発明の処理装置22は、ハードウェアの回路で構成してもよいし、CPUなどを用いたコンピュータにソフトウェアで実行させてもよい。またハードウェアとソフトウェアを適宜組み合わせて同様の処理を行ってもよい。   Note that the processing device 22 of the present invention may be configured by a hardware circuit, or may be executed by a computer using a CPU or the like by software. Similar processing may be performed by appropriately combining hardware and software.

1 操作機器
2 被操作機器
3 通信網
11 ユーザインターフェイス
12 操作信号生成回路
13、21 通信回路
14 表示装置
22 処理装置
221 処理回路
222 制御信号生成回路
223 予測回路
23 周辺情報取得回路
24、26 メモリ
25 制御回路
251、252、253 駆動部
300 撮像装置
REFERENCE SIGNS LIST 1 operation device 2 operated device 3 communication network 11 user interface 12 operation signal generation circuit 13, 21 communication circuit 14 display device 22 processing device 221 processing circuit 222 control signal generation circuit 223 prediction circuit 23 peripheral information acquisition circuit 24, 26 memory 25 Control circuit 251, 252, 253 Drive unit 300 Imaging device

Claims (6)

遠隔地の操作者の指示を示す操作信号に応じた制御信号を生成し、出力する被操作機器の処理装置であって、
前記被操作機器の周辺情報に基づいて前記操作者が次に出す指示を予測し、予測に基づく予測操作信号を生成する予測回路と、
前記操作信号または前記予測操作信号に基づく前記制御信号を生成する制御信号生成回路と
を備え、
前記予測操作信号の前記操作信号に対する誤差が第1の範囲内にある時には、前記制御信号生成回路が前記操作信号を受け取る前に前記予測操作信号に基づいて生成した第1の制御信号を出力することを特徴とする処理装置。
A processing device for the operated device that generates a control signal according to an operation signal indicating an instruction of a remote operator and outputs the control signal,
A prediction circuit that predicts an instruction issued next by the operator based on the peripheral information of the operated device, and generates a predicted operation signal based on the prediction;
A control signal generation circuit that generates the control signal based on the operation signal or the prediction operation signal,
When an error of the predicted operation signal with respect to the operation signal is within a first range, the control signal generation circuit outputs a first control signal generated based on the predicted operation signal before receiving the operation signal. A processing device characterized by the above-mentioned.
前記予測操作信号の前記操作信号に対する誤差が第1の範囲よりも大きく第2の範囲内にあるときには、当該誤差に応じて前記第1の制御信号を補正した第2の制御信号を生成し出力する、請求項1に記載の処理装置。   When an error of the predicted operation signal with respect to the operation signal is larger than a first range and is within a second range, a second control signal is generated by correcting the first control signal according to the error and output. The processing device according to claim 1, which performs the processing. 前記予測回路は、複数の予測結果を出力し、前記制御信号生成回路は前記複数の予測結果のそれぞれに応じた制御信号を複数生成することを特徴とする請求項1記載の処理装置。   The processing apparatus according to claim 1, wherein the prediction circuit outputs a plurality of prediction results, and the control signal generation circuit generates a plurality of control signals corresponding to each of the plurality of prediction results. 前記周辺情報に含まれる映像情報を取得する撮像手段を有することを特徴とする請求項1から3に記載の処理装置。   The processing apparatus according to claim 1, further comprising an imaging unit configured to acquire video information included in the peripheral information. 前記撮像手段は、映像情報からの認識結果を前記周辺情報の一部として出力することを特徴とした請求項4に記載の処理装置。   The processing apparatus according to claim 4, wherein the imaging unit outputs a recognition result from the video information as a part of the peripheral information. 前記被操作機器は、前記制御信号に基づく制御を実行する駆動部を有し、
前記第1の制御信号が指定する前記駆動部に対し予め駆動する準備を指示することを特徴とする、請求項1から5に記載の処理装置。
The operated device has a drive unit that performs control based on the control signal,
The processing apparatus according to claim 1, wherein the processing unit instructs the driving unit specified by the first control signal to prepare for driving in advance.
JP2018150205A 2018-08-09 2018-08-09 Processing equipment Active JP7024658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018150205A JP7024658B2 (en) 2018-08-09 2018-08-09 Processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150205A JP7024658B2 (en) 2018-08-09 2018-08-09 Processing equipment

Publications (2)

Publication Number Publication Date
JP2020027956A true JP2020027956A (en) 2020-02-20
JP7024658B2 JP7024658B2 (en) 2022-02-24

Family

ID=69620404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150205A Active JP7024658B2 (en) 2018-08-09 2018-08-09 Processing equipment

Country Status (1)

Country Link
JP (1) JP7024658B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114437A1 (en) * 2020-11-24 2022-06-02 주식회사 아하정보통신 Electronic blackboard system for performing artificial intelligence control technology through speech recognition in cloud environment
WO2022113368A1 (en) * 2020-11-30 2022-06-02 株式会社ニコン Image conversion method, program, image conversion device, and image conversion system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007276052A (en) * 2006-04-06 2007-10-25 Sony Corp Control system, record system, information processor and method, program, and recording medium
JP2015174155A (en) * 2014-03-13 2015-10-05 三菱重工業株式会社 Robot, method of controlling robot, and control program of robot
JP2018106676A (en) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, operated vehicle, information processing method, and program
JP2018116385A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Remote control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007276052A (en) * 2006-04-06 2007-10-25 Sony Corp Control system, record system, information processor and method, program, and recording medium
JP2015174155A (en) * 2014-03-13 2015-10-05 三菱重工業株式会社 Robot, method of controlling robot, and control program of robot
JP2018106676A (en) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, operated vehicle, information processing method, and program
JP2018116385A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Remote control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114437A1 (en) * 2020-11-24 2022-06-02 주식회사 아하정보통신 Electronic blackboard system for performing artificial intelligence control technology through speech recognition in cloud environment
WO2022113368A1 (en) * 2020-11-30 2022-06-02 株式会社ニコン Image conversion method, program, image conversion device, and image conversion system

Also Published As

Publication number Publication date
JP7024658B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
WO2021051996A1 (en) Image processing method and apparatus
JP4677753B2 (en) Moving image processing apparatus and method
JP6239993B2 (en) Imaging device, display device, and control method
KR101953614B1 (en) Apparatus and method for processing a image of camera device and terminal equipment having a camera
US20130242127A1 (en) Image creating device and image creating method
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
JP6374536B2 (en) Tracking system, terminal device, camera device, tracking shooting method and program
US9389678B2 (en) Virtual image signal processor
JP5414910B2 (en) Display unit, imaging unit, and display system apparatus
KR102386385B1 (en) Electronic device and method for compressing image thereof
JP2002354326A (en) Image-photographing system, image-photographing device and operation device
CN111243105B (en) Augmented reality processing method and device, storage medium and electronic equipment
JP2021056678A (en) Image processing method, program, image processing device, method for producing learned model, and image processing system
JP2014222825A (en) Video processing apparatus and video processing method
JP6354442B2 (en) Imaging apparatus, control method, and program
JP7024658B2 (en) Processing equipment
CN111696039B (en) Image processing method and device, storage medium and electronic equipment
JP6525740B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM
JP2013162287A (en) Image processing apparatus, image processing method, and program
JP7091031B2 (en) Imaging device
JP6270578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN110225331A (en) Color is selectively applied to image
JP2022046219A (en) Image processing method, image processing device, image processing program, learning method, learning device and learning program
US8269858B2 (en) Image pickup device, image pickup method, and integrated circuit
CN109391769A (en) Control equipment, control method and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150