JP7122629B2 - Image processing system, intercom system, image processing method and program - Google Patents

Image processing system, intercom system, image processing method and program Download PDF

Info

Publication number
JP7122629B2
JP7122629B2 JP2018194630A JP2018194630A JP7122629B2 JP 7122629 B2 JP7122629 B2 JP 7122629B2 JP 2018194630 A JP2018194630 A JP 2018194630A JP 2018194630 A JP2018194630 A JP 2018194630A JP 7122629 B2 JP7122629 B2 JP 7122629B2
Authority
JP
Japan
Prior art keywords
unit
image
extraction range
extraction
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018194630A
Other languages
Japanese (ja)
Other versions
JP2020065122A (en
Inventor
睦裕 山中
光治 池田
譲 中村
栄次 中元
さつき 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018194630A priority Critical patent/JP7122629B2/en
Priority to TW108136986A priority patent/TWI762822B/en
Publication of JP2020065122A publication Critical patent/JP2020065122A/en
Application granted granted Critical
Publication of JP7122629B2 publication Critical patent/JP7122629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Interconnected Communication Systems, Intercoms, And Interphones (AREA)

Description

本開示は画像処理システム、インターホンシステム、画像処理方法及びプログラムに関し、より詳細には、インターホンシステムに用いられる画像処理システム、この画像処理システムを備えるインターホンシステム、画像処理方法及びプログラムに関する。 TECHNICAL FIELD The present disclosure relates to an image processing system, an interphone system, an image processing method and a program, and more particularly to an image processing system used in an interphone system, an interphone system including this image processing system, an image processing method and a program.

従来例として特許文献1記載のインターホンシステムを例示する。特許文献1記載のインターホンシステムは、インターホン子機の撮像部で撮像した画像の歪みを補正する歪み補正処理を行う画像補正部を備える。画像補正部は、歪み補正処理において、画像における歪み補正の対象となる領域を複数の領域に分割し、複数の領域の各々に対して互いに異なる歪み補正を行うように構成されている。 As a conventional example, an interphone system described in Patent Document 1 will be exemplified. The interphone system described in Patent Document 1 includes an image correction unit that performs distortion correction processing for correcting distortion of an image captured by an imaging unit of an intercom slave unit. In the distortion correction process, the image correction unit is configured to divide a region to be subjected to distortion correction in the image into a plurality of regions, and perform different distortion corrections on each of the plurality of regions.

国際公開第2018/074520号WO2018/074520

従来より、インターホンシステムにおいて、撮像部で撮像されて生成される画像の見やすさの向上を求められることがあった。例えば、特許文献1記載のインターホンシステムでは、撮像部が撮像部の斜め上の対象を撮像するように設置された場合は、撮像部が撮像部の正面の対象を撮像するように設置された場合と比較して、撮像部で生成された画像において天井等が写っている領域が大きくなり、画像の見やすさが損なわれることがあった。 2. Description of the Related Art Conventionally, in an intercom system, there has been a demand for an improvement in visibility of an image captured by an imaging unit and generated. For example, in the intercom system described in Patent Document 1, when the imaging unit is installed so as to image an object obliquely above the imaging unit, when the imaging unit is installed so as to image an object in front of the imaging unit. As compared with , the image generated by the imaging unit has a large area in which the ceiling or the like is captured, and the visibility of the image may be impaired.

本開示は、撮像部で生成される撮像画像に処理を施して見やすくできる画像処理システム、インターホンシステム、画像処理方法及びプログラムを提供することを目的とする。 An object of the present disclosure is to provide an image processing system, an intercom system, an image processing method, and a program that can process a captured image generated by an imaging unit to make it easier to see.

本開示の一態様に係る画像処理システムは、抽出部と、設定部と、を備える。前記抽出部は、抽出範囲の画像を抽出する。前記抽出範囲は、インターホンシステムに用いられる撮像部が生成した撮像画像の全範囲のうち一部の範囲である。前記設定部は、前記抽出範囲を設定する。前記撮像部から見た前記抽出範囲における水平方向の視野の広さが、前記抽出範囲における或る基準位置において或る大きさになるように、前記設定部は前記抽出範囲を設定する。前記設定部は、前記撮像部の仰角又は俯角に基づいて、前記基準位置及び前記或る大きさのうち少なくとも一方を決定する。 An image processing system according to one aspect of the present disclosure includes an extraction unit and a setting unit. The extraction unit extracts an image of an extraction range. The extraction range is a partial range of the entire range of the captured image generated by the imaging unit used in the intercom system. The setting unit sets the extraction range. The setting unit sets the extraction range such that the width of the horizontal field of view in the extraction range viewed from the imaging unit is a certain size at a certain reference position in the extraction range. The setting unit determines at least one of the reference position and the certain size based on an elevation angle or a depression angle of the imaging unit.

本開示の一態様に係るインターホンシステムは、前記画像処理システムと、複数の通信部と、表示部と、を備える。前記複数の通信部は、音情報を含む信号を相互に通信する。前記表示部は、前記撮像画像の前記全範囲のうち前記抽出範囲の画像を表示する。 An interphone system according to an aspect of the present disclosure includes the image processing system, a plurality of communication units, and a display unit. The plurality of communication units mutually communicate signals including sound information. The display unit displays an image of the extraction range out of the entire range of the captured image.

本開示の一態様に係る画像処理方法は、コンピュータシステムにおいて実行される画像処理方法である。前記画像処理方法は、抽出ステップと、設定ステップと、を備える。前記抽出ステップでは、抽出範囲の画像を抽出する。前記抽出範囲は、インターホンシステムに用いられる撮像部が生成した撮像画像の全範囲のうち一部の範囲である。前記設定ステップでは、前記抽出範囲を設定する。前記撮像部から見た前記抽出範囲における水平方向の視野の広さが、前記抽出範囲における或る基準位置において或る大きさになるように、前記設定ステップでは前記抽出範囲を設定する。前記設定ステップでは、前記撮像部の仰角又は俯角に基づいて、前記基準位置及び前記或る大きさのうち少なくとも一方を決定する。 An image processing method according to an aspect of the present disclosure is an image processing method executed in a computer system. The image processing method includes an extraction step and a setting step. In the extracting step, an image of an extraction range is extracted. The extraction range is a partial range of the entire range of the captured image generated by the imaging unit used in the intercom system. The setting step sets the extraction range. In the setting step, the extraction range is set such that the width of the horizontal field of view in the extraction range as seen from the imaging section has a certain size at a certain reference position in the extraction range. In the setting step, at least one of the reference position and the certain size is determined based on the angle of elevation or the angle of depression of the imaging unit.

本開示の一態様に係るプログラムは、前記画像処理方法を前記コンピュータシステムに実行させる。 A program according to an aspect of the present disclosure causes the computer system to execute the image processing method.

本開示の一態様に係る画像処理システム、インターホンシステム、画像処理方法及びプログラムは、撮像部で生成される撮像画像に処理を施して見やすくできる。 An image processing system, an intercom system, an image processing method, and a program according to one aspect of the present disclosure process a captured image generated by an imaging unit to make it easier to see.

図1は、一実施形態に係るインターホンシステムのブロック図である。FIG. 1 is a block diagram of an intercom system according to one embodiment. 図2は、同上のインターホンシステムのロビーインターホンの設置状態を示す側面図である。FIG. 2 is a side view showing an installation state of the lobby interphone of the same intercom system. 図3は、同上のインターホンシステムのロビーインターホンの設置状態を示す平面図である。FIG. 3 is a plan view showing an installation state of a lobby intercom of the same intercom system. 図4Aは、同上のインターホンシステムの撮像部で生成される撮像画像を示す図である。図4Bは、図4Aに示す撮像画像の補正された後の状態を示す図である。FIG. 4A is a diagram showing a captured image generated by an imaging unit of the intercom system; FIG. 4B is a diagram showing a state after the captured image shown in FIG. 4A has been corrected. 図5は、同上のインターホンシステムのロビーインターホンの動作例を表すフローチャートである。FIG. 5 is a flow chart showing an operation example of the lobby intercom of the intercom system. 図6は、同上のインターホンシステムのロビーインターホンの図2とは別の設置状態を示す側面図である。FIG. 6 is a side view showing a different installation state from FIG. 2 of the lobby interphone of the same intercom system. 図7は、同上のインターホンシステムの撮像部で生成される撮像画像を示す図である。FIG. 7 is a diagram showing a captured image generated by the imaging section of the intercom system; 図8A、8Bはそれぞれ、図7に示す撮像画像の補正された後の状態を示す図である。8A and 8B are diagrams showing states after the captured image shown in FIG. 7 has been corrected. 図9A~9Dはそれぞれ、一実施形態の変形例1に係るインターホンシステムの表示部に表示される画像の説明図である。9A to 9D are explanatory diagrams of images displayed on the display unit of the intercom system according to Modification 1 of the embodiment. 図10A、10Bはそれぞれ、一実施形態の変形例2に係るインターホンシステムの表示部に表示される画像の説明図である。10A and 10B are explanatory diagrams of images displayed on the display unit of the interphone system according to Modification 2 of one embodiment.

以下、実施形態に係る画像処理システム、インターホンシステム、画像処理方法及びプログラムについて、図面を用いて説明する。ただし、下記の実施形態は、本開示の様々な実施形態の1つに過ぎない。下記の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、下記の実施形態において説明する各図は、模式的な図であり、図中の各構成要素の大きさ及び厚さそれぞれの比が必ずしも実際の寸法比を反映しているとは限らない。 An image processing system, an intercom system, an image processing method, and a program according to embodiments will be described below with reference to the drawings. However, the embodiment described below is but one of the various embodiments of the present disclosure. The embodiments described below can be modified in various ways according to design and the like as long as the objects of the present disclosure can be achieved. Each drawing described in the following embodiments is a schematic drawing, and the ratio of the size and thickness of each component in the drawing does not necessarily reflect the actual dimensional ratio. .

本実施形態のインターホンシステム10は、図1に示すように、住戸親機1と、ロビーインターホン2とを備えている。本実施形態では、インターホンシステム10が、集合住宅用のインターホンシステムである場合を例として説明する。そのため、インターホンシステム10は、住戸親機1を複数備えている。以下では、特に断りの無い限り、複数の住戸親機1のうち1つの住戸親機1に着目して説明する。 The intercom system 10 of this embodiment includes a dwelling unit main unit 1 and a lobby intercom 2, as shown in FIG. In this embodiment, an example in which the intercom system 10 is an intercom system for an apartment complex will be described. Therefore, the intercom system 10 includes a plurality of dwelling unit main units 1 . In the following description, one dwelling unit master unit 1 out of the plurality of dwelling unit master units 1 will be described unless otherwise specified.

住戸親機1は、集合住宅の住戸内(室内)に設置される室内親機である。ロビーインターホン2は、集合住宅の共用スペース(ロビー)に設置されるインターホン子機である。 Dwelling unit master unit 1 is an indoor master unit installed in a dwelling unit (indoor) of a collective housing. The lobby intercom 2 is an intercom slave set installed in a shared space (lobby) of a collective housing.

ロビーインターホン2は、撮像部21を有している。撮像部21は、特定領域を撮像するためのカメラである。本実施形態では、特定領域は、集合住宅の共用スペースである。特定領域に来訪者100(図2参照)等の被写体がいる場合は、撮像部21は、被写体を撮像することになる。 The lobby intercom 2 has an imaging unit 21 . The imaging unit 21 is a camera for imaging a specific area. In this embodiment, the specific area is a shared space of an apartment complex. If a subject such as the visitor 100 (see FIG. 2) is present in the specific area, the imaging section 21 will capture an image of the subject.

ロビーインターホン2は、画像処理システムX1を更に有している。画像処理システムX1は、画像補正部23を備えている。画像補正部23は、撮像部21が被写体を撮像して生成した撮像画像を補正する。画像補正部23は、抽出部231と、設定部232と、を含む。ロビーインターホン2は、通信部22と、制御部24と、操作部25(入力部)と、記憶部26と、表示部27とを更に有している。 The lobby intercom 2 further has an image processing system X1. The image processing system X1 includes an image correction section 23 . The image correction unit 23 corrects the captured image generated by the imaging unit 21 capturing an image of the subject. The image corrector 23 includes an extractor 231 and a setter 232 . The lobby intercom 2 further includes a communication section 22 , a control section 24 , an operation section 25 (input section), a storage section 26 and a display section 27 .

住戸親機1とロビーインターホン2とは互いに通信可能に構成されている。これにより、住戸内の居住者と来訪者とは、住戸親機1とロビーインターホン2とを介して通話可能となる。また、住戸親機1は表示部12を有している。インターホンシステム10では、ロビーインターホン2の撮像部21で撮像された来訪者等の撮像画像は、画像補正部23で補正される。画像補正部23で補正されることで生成された画像は、住戸親機1の表示部12に表示される。 The dwelling unit main unit 1 and the lobby intercom 2 are configured to be communicable with each other. Thereby, the resident and the visitor in a dwelling unit can talk via the dwelling unit master unit 1 and the lobby intercom 2.例文帳に追加In addition, the dwelling unit base unit 1 has a display unit 12 . In the intercom system 10 , the captured image of a visitor or the like captured by the imaging unit 21 of the lobby intercom 2 is corrected by the image correction unit 23 . The image generated by being corrected by the image correcting unit 23 is displayed on the display unit 12 of the dwelling unit main unit 1 .

インターホンシステム10は、制御装置を更に備えている。制御装置は、ロビーインターホン2と複数の住戸親機1との間の通信を制御する。制御装置は、ロビーインターホン2と複数の住戸親機1との間の通信の有無を切り替える。ロビーインターホン2に対して所定の操作(例えばロビーインターホン2の複数の押釦を押すことにより住戸の部屋番号を指定する操作)がされると、ロビーインターホン2は、居住者を呼び出すための呼出信号を出力する。呼出信号には、所定の操作により指定された部屋番号の情報が含まれる。制御装置は、呼出信号に応じて、ロビーインターホン2と、複数の住戸親機1のうち所定の操作により指定された部屋番号に対応する住戸親機1との間の通信を確立させる。また、制御装置は、住戸親機1から送信される切断要求信号に応じて、ロビーインターホン2と住戸親機1との間の通信を切断する。 The intercom system 10 further includes a control device. The control device controls communication between the lobby intercom 2 and the plurality of dwelling unit masters 1 . The control device switches presence/absence of communication between the lobby intercom 2 and the plurality of dwelling unit base units 1. - 特許庁When a predetermined operation (for example, an operation to specify a room number of a dwelling unit by pressing a plurality of push buttons of the lobby intercom 2) is performed on the lobby intercom 2, the lobby intercom 2 generates a call signal for calling the resident. Output. The call signal includes information on the room number designated by a predetermined operation. The control device establishes communication between the lobby intercom 2 and the dwelling unit master unit 1 corresponding to the room number designated by a predetermined operation among the plurality of dwelling unit master units 1 according to the call signal. Further, the control device disconnects the communication between the lobby intercom 2 and the dwelling unit master unit 1 in response to the disconnection request signal transmitted from the dwelling unit master unit 1 .

図2、3は、本実施形態のロビーインターホン2の設置例を示す概略図である。ロビーインターホン2は、例えば、集合住宅の共用スペースの壁61に取り付けられる。 2 and 3 are schematic diagrams showing an installation example of the lobby intercom 2 of this embodiment. The lobby intercom 2 is attached, for example, to the wall 61 of the shared space of the housing complex.

撮像部21は、インターホンシステム10に用いられる。ここで、撮像部21がインターホンシステム10に用いられるとは、撮像部21がインターホンシステム10の一部の構成として用いられる場合と、撮像部21がインターホンシステム10の外部の構成としてインターホンシステム10と一緒に用いられる場合と、の両方を含む。本実施形態では、撮像部21はインターホンシステム10の一部の構成として用いられる。 The imaging unit 21 is used for the intercom system 10 . Here, the imaging unit 21 is used in the interphone system 10 when the imaging unit 21 is used as a part of the interphone system 10, and when the imaging unit 21 is used as an external configuration of the interphone system 10 as the interphone system 10. including both and when used together. In this embodiment, the imaging unit 21 is used as a part of the intercom system 10 .

図1に示すように、撮像部21は、撮像素子211と、レンズ212とを含んでいる。レンズ212の光軸は、撮像素子211に対して傾斜可能である。撮像部21は、来訪者100(図2参照)等の被写体を撮像するためのカメラである。そのため、来訪者100がロビーインターホン2を操作する際に少なくとも来訪者100の顔101(図2参照)が画像に写り込むように、撮像部21の撮像エリア(視野)はロビーインターホン2の前方に設定される。すなわち、撮像部21の撮像エリア(視野)がロビーインターホン2の前方となるように、ロビーインターホン2の後述の筐体20における撮像部21の位置が予め決められている。本実施形態では、撮像部21は動画を撮像するカメラであると仮定するが、撮像部21は静止画を撮像するカメラ(スチルカメラ)であってもよい。また、本実施形態では、撮像部21はカラー画像を生成するカラーカメラであると仮定するが、撮像部21はモノクローム画像を生成するモノクロームカメラであってもよい。 As shown in FIG. 1 , the imaging unit 21 includes an imaging device 211 and a lens 212 . The optical axis of the lens 212 can be tilted with respect to the imaging device 211 . The imaging unit 21 is a camera for imaging a subject such as the visitor 100 (see FIG. 2). Therefore, when the visitor 100 operates the lobby intercom 2, the imaging area (field of view) of the imaging unit 21 is in front of the lobby intercom 2 so that at least the face 101 (see FIG. 2) of the visitor 100 is reflected in the image. set. That is, the position of the imaging unit 21 in the after-mentioned housing 20 of the lobby intercom 2 is determined in advance so that the imaging area (field of view) of the imaging unit 21 is in front of the lobby intercom 2 . In this embodiment, the imaging unit 21 is assumed to be a camera that captures moving images, but the imaging unit 21 may be a camera that captures still images (still camera). Also, in the present embodiment, the imaging unit 21 is assumed to be a color camera that generates color images, but the imaging unit 21 may be a monochrome camera that generates monochrome images.

撮像素子211は、例えばCCD(Charge Coupled Devices)イメージセンサ、又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の二次元イメージセンサである。撮像部21で生成された撮像画像は、撮像部21から電気信号(画像信号)として出力される。ここでは、撮像部21は、撮像素子211の出力信号からYUVフォーマットのデジタルの画像信号を生成し、デジタルの画像信号を出力するように構成されている。このデジタルの画像信号が、撮像部21で生成される撮像画像に相当する。レンズ212は、魚眼レンズ(超広角レンズ)である。撮像部21は、180°以上の水平画角を有する。撮像素子211が固定された状態で、レンズ212は、左右方向(図2の紙面に垂直な方向)と直交する平面において回転可能(傾斜可能)に構成されている。したがって、撮像部21の光軸P1(図2参照)は、レンズ212の傾斜角度に応じて変化する。撮像部21の垂直画角α1(図2参照)は、180°よりも小さい。 The imaging element 211 is, for example, a two-dimensional image sensor such as a CCD (Charge Coupled Devices) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. A captured image generated by the imaging unit 21 is output from the imaging unit 21 as an electric signal (image signal). Here, the imaging unit 21 is configured to generate a YUV format digital image signal from the output signal of the imaging element 211 and output the digital image signal. This digital image signal corresponds to the captured image generated by the imaging unit 21 . The lens 212 is a fisheye lens (ultra wide angle lens). The imaging unit 21 has a horizontal angle of view of 180° or more. With the imaging element 211 fixed, the lens 212 is rotatable (tiltable) on a plane perpendicular to the left-right direction (the direction perpendicular to the plane of FIG. 2). Therefore, the optical axis P<b>1 (see FIG. 2 ) of the imaging section 21 changes according to the tilt angle of the lens 212 . A vertical angle of view α1 (see FIG. 2) of the imaging unit 21 is smaller than 180°.

ロビーインターホン2の通信部22は、住戸親機1と通信するための通信インターフェースである。通信部22は、例えばツイストペア線等からなる2線式の伝送路4(図1では1本の線で示す)を介して、住戸親機1と電気的に接続されている。通信部22は、住戸親機1との間で双方向に通信可能に構成されている。通信部22は、撮像部21で生成された撮像画像(画像信号)を画像補正部23が補正することにより生成された画像を住戸親機1に送信する。 The communication unit 22 of the lobby intercom 2 is a communication interface for communicating with the dwelling unit main unit 1 . The communication unit 22 is electrically connected to the dwelling unit main unit 1 via a two-wire transmission line 4 (indicated by one line in FIG. 1) made up of, for example, twisted pair wires. The communication unit 22 is configured to be able to communicate bidirectionally with the dwelling unit base unit 1 . The communication unit 22 transmits an image generated by the image correcting unit 23 correcting the captured image (image signal) generated by the imaging unit 21 to the dwelling unit main unit 1 .

画像補正部23は、例えばDSP(Digital Signal Processor)又はFPGA(Field-Programmable Gate Array)等で実現される。 The image correction unit 23 is implemented by, for example, a DSP (Digital Signal Processor) or FPGA (Field-Programmable Gate Array).

画像補正部23の設定部232は、撮像部21が生成した撮像画像の抽出範囲E1(図4A参照)を設定する。抽出範囲E1は、撮像画像の全範囲A1(図4A参照)のうち一部の範囲である。画像補正部23の抽出部231は、撮像画像から抽出範囲E1の画像を抽出する。 The setting unit 232 of the image correcting unit 23 sets the extraction range E1 (see FIG. 4A) of the captured image generated by the imaging unit 21 . The extraction range E1 is a partial range of the entire range A1 (see FIG. 4A) of the captured image. The extraction unit 231 of the image correction unit 23 extracts the image of the extraction range E1 from the captured image.

画像補正部23は、歪み補正部233を更に含んでいる。歪み補正部233は、抽出部231で抽出された画像に対して、画像の歪みを補正する歪み補正処理を行う。 The image corrector 23 further includes a distortion corrector 233 . The distortion correction unit 233 performs distortion correction processing for correcting image distortion on the image extracted by the extraction unit 231 .

通信部22には、画像補正部23から出力される画像(画像信号)が入力される。そのため、通信部22は、撮像部21から出力されたときの状態の画像信号ではなく、抽出部231で抽出され歪み補正部233で補正された画像信号を住戸親機1へ送信する。 An image (image signal) output from the image correction unit 23 is input to the communication unit 22 . Therefore, the communication unit 22 transmits the image signal extracted by the extraction unit 231 and corrected by the distortion correction unit 233 to the dwelling unit main unit 1 instead of the image signal in the state when it is output from the imaging unit 21 .

図5に示すように、本開示の画像処理方法は、抽出ステップS2と、設定ステップS1と、を備えている。設定ステップS1の後に、抽出ステップS2が実行される。設定ステップS1では、抽出範囲E1(図4A参照)を設定する。抽出範囲E1は、インターホンシステム10に用いられる撮像部21が生成した撮像画像の全範囲A1(図4A参照)のうち一部の範囲である。抽出ステップS2では、抽出範囲E1の画像を抽出する。設定ステップS1は、画像補正部23の設定部232により実行される。抽出ステップS2は、画像補正部23の抽出部231により実行される。 As shown in FIG. 5, the image processing method of the present disclosure includes an extraction step S2 and a setting step S1. After the setting step S1, an extraction step S2 is performed. In setting step S1, an extraction range E1 (see FIG. 4A) is set. The extraction range E1 is a partial range of the entire range A1 (see FIG. 4A) of the captured image generated by the imaging unit 21 used in the intercom system 10. FIG. At the extraction step S2, an image of the extraction range E1 is extracted. The setting step S<b>1 is executed by the setting unit 232 of the image correction unit 23 . Extraction step S<b>2 is executed by the extraction unit 231 of the image correction unit 23 .

抽出範囲E1を設定する設定ステップS1は、例えば、インターホンシステム10の施工時において行われればよい。設定ステップS1は、来訪者が住戸内の居住者を呼び出すために所定の操作を行う度に行われてもよい。 The setting step S1 for setting the extraction range E1 may be performed, for example, when the intercom system 10 is installed. The setting step S1 may be performed each time a visitor performs a predetermined operation to call a resident in the dwelling unit.

本開示の画像処理方法は、歪み補正ステップS3と、送信ステップS4とを更に備えている。歪み補正ステップS3では、抽出ステップS2で抽出された画像に対して、画像の歪みを補正する歪み補正処理を行う。送信ステップS4では、歪み補正ステップS3で補正された画像信号を住戸親機1へ送信する。歪み補正ステップS3は、画像補正部23の歪み補正部233により実行される。送信ステップS4は、ロビーインターホン2の通信部22により実行される。 The image processing method of the present disclosure further includes a distortion correction step S3 and a transmission step S4. In the distortion correction step S3, the image extracted in the extraction step S2 is subjected to distortion correction processing for correcting distortion of the image. In the transmission step S4, the image signal corrected in the distortion correction step S3 is transmitted to the dwelling unit base unit 1. FIG. The distortion correction step S<b>3 is executed by the distortion correction section 233 of the image correction section 23 . The transmission step S4 is executed by the communication unit 22 of the lobby intercom 2. FIG.

操作部25は、例えば複数の押釦を含む。操作部25は、来訪者が住戸内の居住者を呼び出すために行う操作を受け付ける。操作部25に対して所定の操作(例えば複数の押釦を押すことにより住戸の部屋番号を指定する操作)がされると、ロビーインターホン2は、居住者を呼び出すための制御信号(呼出信号)を通信部22から住戸親機1へ送信する。 The operation unit 25 includes, for example, multiple push buttons. The operation unit 25 receives an operation performed by a visitor to call a resident in the dwelling unit. When a predetermined operation (for example, an operation to specify a room number of a dwelling unit by pressing a plurality of push buttons) is performed on the operation unit 25, the lobby intercom 2 outputs a control signal (call signal) for calling the resident. It is transmitted from the communication unit 22 to the dwelling unit main unit 1 .

また、操作部25は、ロビーインターホン2の設置場所の床66(図2参照)からの撮像素子211の高さH1(図2参照)の情報の入力を受け付ける。 Further, the operation unit 25 receives input of information on the height H1 (see FIG. 2) of the imaging element 211 from the floor 66 (see FIG. 2) of the installation location of the lobby intercom 2. FIG.

また、操作部25は、水平面に対する撮像部21の取付面の傾斜角度θ1(図2参照)の情報の入力を受け付ける。撮像部21の取付面とは、撮像部21が取り付けられる面である。図2に示す例では、鉛直な壁面611が撮像部21の取付面に相当するため、傾斜角度θ1は90°である。ここでは、ロビーインターホン2の後述の筐体20が壁61に取り付けられることにより、筐体20に保持された撮像部21が間接的に取付面に取り付けられる。 The operation unit 25 also receives input of information on the inclination angle θ1 (see FIG. 2) of the mounting surface of the imaging unit 21 with respect to the horizontal plane. The mounting surface of the imaging unit 21 is a surface to which the imaging unit 21 is attached. In the example shown in FIG. 2, the vertical wall surface 611 corresponds to the mounting surface of the imaging unit 21, so the inclination angle θ1 is 90°. Here, by attaching the later-described housing 20 of the lobby intercom 2 to the wall 61, the imaging unit 21 held in the housing 20 is indirectly attached to the mounting surface.

操作部25は、例えばテンキーを含む。インターホンシステム10の施工時において施工者が操作部25のテンキーを操作することで、傾斜角度θ1の情報及び高さH1の情報がロビーインターホン2に入力される。また、操作部25は、例えば、レンズ212の傾斜角度を設定するためのキー(釦)を含む。例えば、操作部25のキーが操作されている間、ロビーインターホン2の駆動部は、レンズ212の傾斜角度を連続的に変化させる。インターホンシステム10の施工時において施工者が操作部25のキーを操作することで、レンズ212の傾斜角度が設定される。つまり、操作部25のキーへの操作は、レンズ212の傾斜角度の情報の入力に相当する。 The operation unit 25 includes, for example, a numeric keypad. Information on the inclination angle θ1 and information on the height H1 are input to the lobby intercom 2 by the installer operating the numeric keypad of the operation unit 25 when installing the intercom system 10 . The operation unit 25 also includes, for example, keys (buttons) for setting the tilt angle of the lens 212 . For example, while the key of the operation unit 25 is being operated, the driving unit of the lobby intercom 2 continuously changes the tilt angle of the lens 212 . The inclination angle of the lens 212 is set by the installer operating the keys of the operation unit 25 when installing the intercom system 10 . In other words, operating the keys of the operation unit 25 corresponds to inputting information on the tilt angle of the lens 212 .

記憶部26は、データを書き換え可能なメモリであって、不揮発性メモリであることが好ましい。記憶部26は、画像補正部23から出力された画像(画像信号)を記録することが好ましい。また、記憶部26には、抽出部231で抽出された画像に対して歪み補正部233が歪み補正を行うための複数の歪み補正パターンが予め記録されている。 The storage unit 26 is a rewritable memory, preferably a non-volatile memory. The storage unit 26 preferably records the image (image signal) output from the image correction unit 23 . The storage unit 26 stores in advance a plurality of distortion correction patterns for the distortion correction unit 233 to perform distortion correction on the image extracted by the extraction unit 231 .

表示部27は、画像補正部23から出力された画像信号に基づいて画像を表示する。表示部27は、例えば液晶ディスプレイである。また、ロビーインターホン2がタッチパネルを備えている場合には、タッチパネルディスプレイが表示部27と操作部25とを兼ねてもよい。表示部27は、画像補正部23から出力された画像信号に基づいた画像を表示する。表示部27は、画像補正部23から出力された画像信号に基づいた画像を、常時表示してもよいし、ロビーインターホン2から居住者を呼び出すための制御信号(呼出信号)が住戸親機1へ送信された場合に表示してもよい。 The display section 27 displays an image based on the image signal output from the image correction section 23 . The display unit 27 is, for example, a liquid crystal display. Moreover, when the lobby intercom 2 has a touch panel, the touch panel display may serve as both the display unit 27 and the operation unit 25 . The display section 27 displays an image based on the image signal output from the image correction section 23 . The display unit 27 may always display an image based on the image signal output from the image correction unit 23, or a control signal (call signal) for calling a resident from the lobby intercom 2 is sent to the dwelling unit base unit 1. May be displayed when sent to

制御部24は、ロビーインターホン2における制御部24以外の各構成要素を制御する。制御部24は、例えばプロセッサ及びメモリを主構成とするマイクロコントローラにより構成されている。制御部24のプロセッサがメモリに格納されているプログラムを実行することにより、制御部24としての機能が実現される。プロセッサが実行するプログラムは、ここではマイクロコントローラのメモリに予め記録されているが、メモリカード等の非一時的な記録媒体に記録されて提供されてもよいし、電気通信回線を通じて提供されてもよい。また、記憶部26が制御部24のメモリとして機能してもよい。 The control unit 24 controls each component other than the control unit 24 in the lobby intercom 2 . The control unit 24 is composed of, for example, a microcontroller mainly composed of a processor and a memory. The functions of the control unit 24 are realized by the processor of the control unit 24 executing a program stored in the memory. The program executed by the processor is prerecorded in the memory of the microcontroller here, but may be provided by being recorded in a non-temporary recording medium such as a memory card, or may be provided through an electric communication line. good. Also, the storage unit 26 may function as a memory for the control unit 24 .

ロビーインターホン2は、図2に示すように、筐体20を更に有している。筐体20は、厚みの薄い矩形箱状に形成されている。筐体20の内部には、撮像部21及び通信部22を含むロビーインターホン2の各構成要素が収納されている。筐体20は、壁61に取り付けられている。 The lobby intercom 2 further has a housing 20 as shown in FIG. The housing 20 is formed in a thin rectangular box shape. Each component of the lobby intercom 2 including an imaging unit 21 and a communication unit 22 is housed inside the housing 20 . The housing 20 is attached to the wall 61 .

住戸親機1は、図1に示すように、通信部11と、表示部12と、制御部13と、画像処理部14と、操作部15とを有している。 The dwelling unit base unit 1 has a communication unit 11, a display unit 12, a control unit 13, an image processing unit 14, and an operation unit 15, as shown in FIG.

通信部11は、ロビーインターホン2と通信するための通信インターフェースである。通信部11は、伝送路4を介して、ロビーインターホン2の通信部22と電気的に接続されている。通信部11は、ロビーインターホン2(通信部22)との間で双方向に通信可能に構成されている。通信部11は、ロビーインターホン2の通信部22から送信された画像信号を受信する。住戸親機1の通信部11とロビーインターホン2の通信部22とは、音情報を含む信号を相互に通信する。これにより、住戸内の居住者と来訪者とは、住戸親機1とロビーインターホン2とを介して通話可能となる。 The communication unit 11 is a communication interface for communicating with the lobby intercom 2 . The communication unit 11 is electrically connected to the communication unit 22 of the lobby intercom 2 via the transmission line 4 . The communication unit 11 is configured to be bidirectionally communicable with the lobby intercom 2 (communication unit 22). The communication unit 11 receives the image signal transmitted from the communication unit 22 of the lobby intercom 2 . The communication unit 11 of the dwelling unit base unit 1 and the communication unit 22 of the lobby intercom 2 mutually communicate signals including sound information. Thereby, the resident and the visitor in a dwelling unit can talk via the dwelling unit master unit 1 and the lobby intercom 2.例文帳に追加

表示部12は、画像信号に基づいて画像を表示する。表示部12は、例えば液晶ディスプレイである。また、住戸親機1がタッチパネルを備えている場合には、タッチパネルディスプレイが表示部12と操作部15とを兼ねてもよい。表示部12に表示される画像の少なくとも一部は、ロビーインターホン2の表示部27に表示される画像の少なくとも一部と同じである。表示部12は、ロビーインターホン2から、居住者を呼び出すための制御信号(呼出信号)が住戸親機1へ送信されると、画像信号に基づいた画像を表示する。 The display unit 12 displays an image based on the image signal. The display unit 12 is, for example, a liquid crystal display. Moreover, when the dwelling unit base unit 1 is provided with a touch panel, the touch panel display may serve as both the display unit 12 and the operation unit 15 . At least part of the image displayed on the display unit 12 is the same as at least part of the image displayed on the display unit 27 of the lobby intercom 2 . When a control signal (call signal) for calling a resident is transmitted from the lobby intercom 2 to the dwelling unit main unit 1, the display unit 12 displays an image based on the image signal.

画像処理部14は、通信部11から出力される画像信号を受け取って、画像信号に対して画像処理を行う。画像処理部14が行う画像処理は、例えば、画像信号に基づく画像を拡大又は縮小する処理である。表示部12には、画像処理部14から出力される画像信号が入力される。そのため、表示部12は、通信部11が受信した状態の画像信号に基づく画像ではなく、画像処理部14で画像処理が施された画像信号に基づく画像を表示する。画像処理部14は、例えばDSP又はFPGA等で実現される。 The image processing unit 14 receives the image signal output from the communication unit 11 and performs image processing on the image signal. The image processing performed by the image processing unit 14 is, for example, processing for enlarging or reducing an image based on an image signal. An image signal output from the image processing unit 14 is input to the display unit 12 . Therefore, the display unit 12 displays an image based on the image signal processed by the image processing unit 14 instead of an image based on the image signal received by the communication unit 11 . The image processing unit 14 is realized by, for example, DSP or FPGA.

操作部15は、住戸内の居住者等の操作を受け付ける。操作部15は、例えば、押釦を含む。通信部11が、居住者を呼び出すための制御信号(呼出信号)をロビーインターホン2から受信し、その後、操作部15に対して所定の操作(例えば押釦への押操作)がされると、住戸内の居住者と来訪者とは、住戸親機1とロビーインターホン2とを介して通話可能となる。 The operation unit 15 receives operations by residents of the dwelling unit. The operation unit 15 includes, for example, push buttons. The communication unit 11 receives a control signal (call signal) for calling the resident from the lobby intercom 2, and then, when a predetermined operation (for example, pressing a push button) is performed on the operation unit 15, the dwelling unit A resident and a visitor in the house can communicate with each other via the dwelling unit main unit 1 and the lobby intercom 2.例文帳に追加

制御部13は、住戸親機1における制御部13以外の各構成要素を制御する。制御部13は、例えばプロセッサ及びメモリを主構成とするマイクロコントローラにより構成されている。制御部13のプロセッサがメモリに格納されているプログラムを実行することにより、制御部13としての機能が実現される。プロセッサが実行するプログラムは、ここではマイクロコンピュータのメモリに予め記録されているが、メモリカード等の非一時的な記録媒体に記録されて提供されてもよいし、電気通信回線を通じて提供されてもよい。 The control unit 13 controls each component other than the control unit 13 in the dwelling unit base unit 1 . The control unit 13 is composed of a microcontroller mainly composed of, for example, a processor and a memory. The function of the control unit 13 is realized by the processor of the control unit 13 executing a program stored in the memory. The program executed by the processor is prerecorded in the memory of the microcomputer here, but may be provided by being recorded in a non-temporary recording medium such as a memory card, or may be provided through an electric communication line. good.

本開示における画像処理システムX1及びインターホンシステム10は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における画像処理システムX1及びインターホンシステム10としての機能及び画像処理方法が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(UltraLarge Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。 The image processing system X1 and intercom system 10 in the present disclosure include computer systems. A computer system is mainly composed of a processor and a memory as hardware. The functions and image processing method of the image processing system X1 and the intercom system 10 in the present disclosure are realized by the processor executing a program recorded in the memory of the computer system. The program may be recorded in advance in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-temporary recording medium such as a computer system-readable memory card, optical disk, or hard disk drive. may be provided. A processor in a computer system consists of one or more electronic circuits, including semiconductor integrated circuits (ICs) or large scale integrated circuits (LSIs). The integrated circuit such as IC or LSI referred to here is called differently depending on the degree of integration, and includes integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Furthermore, an FPGA (Field-Programmable Gate Array), which is programmed after the LSI is manufactured, or a logic device capable of reconfiguring the bonding relationship inside the LSI or reconfiguring the circuit partitions inside the LSI, shall also be adopted as the processor. can be done. A plurality of electronic circuits may be integrated into one chip, or may be distributed over a plurality of chips. A plurality of chips may be integrated in one device, or may be distributed in a plurality of devices. A computer system, as used herein, includes a microcontroller having one or more processors and one or more memories. Accordingly, the microcontroller also consists of one or more electronic circuits including semiconductor integrated circuits or large scale integrated circuits.

また、インターホンシステム10における複数の機能が、1つの筐体内に集約されていることはインターホンシステム10に必須の構成ではなく、インターホンシステム10の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、インターホンシステム10の少なくとも一部の機能、例えば、画像補正部23の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。あるいは、インターホンシステム10の少なくとも一部の機能が、住戸親機1とロビーインターホン2との間の通信を制御する制御装置により実現されてもよい。 In addition, it is not an essential configuration of the intercom system 10 that a plurality of functions in the intercom system 10 are integrated in one housing, and the components of the intercom system 10 are provided dispersedly in a plurality of housings. may be Furthermore, at least part of the functions of the intercom system 10, for example, part of the functions of the image corrector 23, may be realized by the cloud (cloud computing) or the like. Alternatively, at least some functions of the intercom system 10 may be implemented by a control device that controls communication between the dwelling unit base unit 1 and the lobby intercom 2 .

反対に、実施形態1において、複数の装置に分散されているインターホンシステム10の少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、住戸親機1とロビーインターホン2とに分散されているインターホンシステム10の一部の機能が、1つの筐体内に集約されていてもよい。 Conversely, in Embodiment 1, at least some of the functions of the intercom system 10 distributed among multiple devices may be integrated into one housing. For example, some functions of the intercom system 10 distributed to the dwelling unit main unit 1 and the lobby intercom 2 may be integrated in one housing.

図4Aは、撮像部21で生成される撮像画像の概略図である。すなわち、図4Aに示される撮像画像は、画像補正部23で歪み補正がされる前であって、画像補正部23で抽出範囲E1の画像が抽出される前の、全範囲A1の画像である。ここでは、撮像部21の光軸P1(図2参照)は、水平面に沿っているとする。 FIG. 4A is a schematic diagram of a captured image generated by the imaging unit 21. FIG. That is, the captured image shown in FIG. 4A is an image of the entire range A1 before distortion correction is performed by the image correction unit 23 and before the image of the extraction range E1 is extracted by the image correction unit 23. . Here, it is assumed that the optical axis P1 (see FIG. 2) of the imaging section 21 is along the horizontal plane.

上述のように、撮像部21のレンズ212は魚眼レンズである。そのため、撮像部21により生成された撮像画像には、図4Aに示すように、中心部が膨らむように歪む、いわゆる樽型の歪曲収差(distortion)が生じる。 As described above, the lens 212 of the imaging unit 21 is a fisheye lens. Therefore, as shown in FIG. 4A, the captured image generated by the imaging unit 21 has so-called barrel-shaped distortion, in which the central portion is bulging.

来訪者100は、図4Aに示すように、撮像画像の中央に位置しているため、歪みが少ない。一方、撮像画像の周縁部に位置している壁62、63、64、天井65、床66及び、壁64に設けられたドア67は、湾曲して写っている。また、図4Aに示す撮像画像では、4隅にロビーインターホン2の筐体20の一部が写っている。つまり、図4Aに示す撮像画像では、いわゆるけられが発生している。 Since the visitor 100 is positioned in the center of the captured image as shown in FIG. 4A, there is little distortion. On the other hand, the walls 62, 63, 64, the ceiling 65, the floor 66, and the door 67 provided on the wall 64, which are positioned at the periphery of the captured image, are shown curved. Moreover, a part of housing|casing 20 of the lobby intercom 2 is reflected in the four corners in the captured image shown to FIG. 4A. That is, so-called vignetting occurs in the captured image shown in FIG. 4A.

図4Aの撮像画像では、来訪者100の顔101が中央に位置する。画像補正部23の設定部232は、抽出範囲E1を設定(決定)するために、撮像部21で生成された撮像画像の中での来訪者の顔の位置を推定する。より詳細には、設定部232は、操作部25に入力された、撮像素子211に対するレンズ212の傾斜角度の情報と、床66からの撮像素子211の高さH1の情報と、水平面に対する撮像部21の取付面の傾斜角度θ1の情報とに基づいて、撮像部21で生成された撮像画像の中での来訪者の顔の位置を推定する。ここで、設定部232は、実際に来訪者が撮像部21で撮像される前に、来訪者の顔の位置を予め推定する。設定部232が推定する来訪者の顔の位置は、特定の来訪者100の顔101の位置ではなく、例えば、平均身長を有する大人の顔の位置である。設定部232は、推定した来訪者の顔の位置が抽出範囲E1の中心となるように、抽出範囲E1を設定する。また、設定部232は、撮像画像の抽出範囲E1が全範囲A1よりも上下方向及び水平方向に小さくなるように抽出範囲E1を設定する。 In the captured image of FIG. 4A, the face 101 of the visitor 100 is positioned in the center. The setting unit 232 of the image correction unit 23 estimates the position of the visitor's face in the captured image generated by the imaging unit 21 in order to set (determine) the extraction range E1. More specifically, the setting unit 232 receives information on the tilt angle of the lens 212 with respect to the image sensor 211, information on the height H1 of the image sensor 211 from the floor 66, and information on the image sensor 211 with respect to the horizontal plane. Based on the information on the inclination angle θ1 of the mounting surface 21, the position of the visitor's face in the captured image generated by the imaging unit 21 is estimated. Here, the setting unit 232 presumes the position of the visitor's face before the image of the visitor is actually captured by the imaging unit 21 . The position of the face of the visitor estimated by the setting unit 232 is not the position of the face 101 of the specific visitor 100, but the position of the face of an average height adult, for example. The setting unit 232 sets the extraction range E1 such that the estimated position of the visitor's face is the center of the extraction range E1. Also, the setting unit 232 sets the extraction range E1 of the captured image so that the extraction range E1 is smaller than the entire range A1 in the vertical direction and the horizontal direction.

画像補正部23の抽出部231は、撮像部21で生成された撮像画像から、設定部232で設定された抽出範囲E1の画像を抽出する。 The extraction unit 231 of the image correction unit 23 extracts the image of the extraction range E1 set by the setting unit 232 from the captured image generated by the imaging unit 21 .

画像補正部23の歪み補正部233は、抽出部231で抽出された抽出範囲E1の画像に対して、水平方向(図4Aの左右方向)及び鉛直方向(図4Aの上下方向)のうち少なくとも一方の方向の歪み補正を行う。ここで、水平方向の歪み補正とは、画像内において鉛直方向(上下方向)に伸びる線の歪みが低減されるように、水平方向に引き延ばす補正のことを言う。鉛直方向の歪み補正とは、画像内において水平方向(左右方向)に伸びる線の歪みが低減されるように、鉛直方向に引き延ばす補正のことを言う。歪み補正部233による歪み補正により、画像の歪みが低減される。 The distortion correction unit 233 of the image correction unit 23 corrects at least one of the horizontal direction (horizontal direction in FIG. 4A) and vertical direction (vertical direction in FIG. 4A) for the image of the extraction range E1 extracted by the extraction unit 231. Performs distortion correction in the direction of . Here, horizontal distortion correction refers to horizontal extension correction so as to reduce the distortion of lines extending in the vertical direction (vertical direction) in an image. The vertical distortion correction is a correction for extending the line in the vertical direction so as to reduce the distortion of the line extending in the horizontal direction (horizontal direction) in the image. Image distortion is reduced by distortion correction by the distortion correction unit 233 .

図4Aに示すように、歪み補正前の撮像画像における抽出範囲E1の形状は、抽出範囲E1の上下左右の境界線を構成する4つの曲線で囲まれた形状である。図4Bに、歪み補正部233による歪み補正後の画像を図示する。歪み補正後の画像の全体が抽出範囲E2に相当する。歪み補正後の画像における抽出範囲E2の形状は、歪み補正前の撮像画像における抽出範囲E1の形状とは異なる。歪み補正後の画像において、抽出範囲E2の形状は、長方形状である。 As shown in FIG. 4A, the shape of the extraction range E1 in the captured image before distortion correction is a shape surrounded by four curved lines forming upper, lower, left, and right boundary lines of the extraction range E1. FIG. 4B shows an image after distortion correction by the distortion correction unit 233. As shown in FIG. The entire image after distortion correction corresponds to the extraction range E2. The shape of the extraction range E2 in the image after distortion correction is different from the shape of the extraction range E1 in the captured image before distortion correction. In the image after distortion correction, the shape of the extraction range E2 is rectangular.

設定部232は、撮像部21の仰角又は俯角に基づいて、抽出範囲E1を設定する。図4Aの例では、撮像部21の仰角(又は俯角)は0°である。ここで、撮像部21の仰角(又は俯角)とは、撮像部21の光軸P1と水平面とがなす角度である。撮像部21の仰角(又は俯角)は、操作部25に入力された、撮像素子211に対するレンズ212の傾斜角度の情報と、水平面に対する撮像部21の取付面の傾斜角度θ1の情報とに基づいて、設定部232にて演算により求められる。つまり、操作部25(入力部)に入力された傾斜角度θ1の情報及びレンズ212の傾斜角度の情報は、抽出範囲E1を指定する指定情報として用いられる。設定部232は、指定情報に基づいて、抽出範囲E1を設定する。 The setting unit 232 sets the extraction range E<b>1 based on the elevation angle or depression angle of the imaging unit 21 . In the example of FIG. 4A, the elevation angle (or depression angle) of the imaging unit 21 is 0°. Here, the elevation angle (or depression angle) of the imaging section 21 is the angle between the optical axis P1 of the imaging section 21 and the horizontal plane. The angle of elevation (or angle of depression) of the imaging unit 21 is based on the information on the inclination angle of the lens 212 with respect to the imaging element 211 and the information on the inclination angle θ1 of the mounting surface of the imaging unit 21 with respect to the horizontal plane, which are input to the operation unit 25. , is calculated by the setting unit 232 . That is, the information about the tilt angle θ1 and the information about the tilt angle of the lens 212 input to the operation unit 25 (input unit) are used as designation information for designating the extraction range E1. The setting unit 232 sets the extraction range E1 based on the designation information.

撮像部21から見た抽出範囲E1における水平方向の視野の広さが、抽出範囲E1における或る基準位置において或る大きさになるように、設定部232は抽出範囲E1を設定(決定)する。設定部232は、撮像部21の仰角(又は俯角)に基づいて、上記或る基準位置及び上記或る大きさのうち少なくとも一方(本実施形態では両方)を決定する。図3には、撮像部21から見た抽出範囲E1における、上記或る基準位置においての水平方向の視野の広さβ1(以下、『抽出範囲E1及び上記或る基準位置における視野の広さβ1』と称す)を図示している。 The setting unit 232 sets (determines) the extraction range E1 so that the width of the horizontal field of view in the extraction range E1 viewed from the imaging unit 21 has a certain size at a certain reference position in the extraction range E1. . The setting unit 232 determines at least one of the certain reference position and the certain size (both in this embodiment) based on the elevation angle (or depression angle) of the imaging unit 21 . FIG. 3 shows a horizontal field of view β1 at the above-mentioned certain reference position in the extraction range E1 viewed from the imaging unit 21 (hereinafter referred to as “the extraction range E1 and the field of view β1 at the certain reference position ”) is illustrated.

撮像部21の仰角が0°の場合、設定部232は例えば、抽出範囲E1における基準位置を、上下方向における抽出範囲E1の中心の位置に決定する。ここでは、床66から基準位置までの距離は、床66からの撮像部21の高さH1(図2参照)に等しい。図4Aには、基準位置を通る線L1を図示している。線L1は、水平面と平行である。線L1は、鉛直方向において抽出範囲E1の上側の境界線との間の距離が抽出範囲E1の下側の境界線との間の距離と等しい点の集合である。図4Bには、基準位置を通る線L2を図示している。線L2は、水平面と平行である。線L2は、抽出範囲E2を上下に2等分している。ただし、線L1、L2は、仮想的な線であり、実際に表示される線ではない。 When the elevation angle of the imaging unit 21 is 0°, the setting unit 232, for example, determines the reference position in the extraction range E1 to be the center position of the extraction range E1 in the vertical direction. Here, the distance from the floor 66 to the reference position is equal to the height H1 (see FIG. 2) of the imaging section 21 from the floor 66 . FIG. 4A shows a line L1 passing through the reference position. Line L1 is parallel to the horizontal plane. The line L1 is a set of points whose distance from the upper boundary line of the extraction range E1 in the vertical direction is equal to the distance from the lower boundary line of the extraction range E1. FIG. 4B shows a line L2 passing through the reference position. Line L2 is parallel to the horizontal plane. The line L2 bisects the extraction range E2 vertically. However, the lines L1 and L2 are virtual lines and are not actually displayed lines.

また、撮像部21の仰角が0°の場合、設定部232は例えば、上記或る大きさを160°に決定する。つまり、撮像部21は180°以上の水平画角を有するが、抽出範囲E1及び上記或る基準位置における視野の広さβ1が160°となるように、設定部232は抽出範囲E1の左右方向(水平方向)の幅を決定する。すなわち、抽出範囲E1の外縁と線L1との第1の交点C1に写る点D1(図3、図4Aでは、壁63上の点)から撮像部21までを結ぶ直線と、抽出範囲E1の外縁と線L1との第2の交点C2に写る点D2(図3、図4Aでは、壁64上の点)から撮像部21までを結ぶ直線とがなす角(抽出範囲E1及び上記或る基準位置における視野の広さβ1)は、160°となる(図3、図4A参照)。 Also, when the elevation angle of the imaging unit 21 is 0°, the setting unit 232 determines the certain size to be 160°, for example. In other words, the imaging unit 21 has a horizontal angle of view of 180° or more, but the setting unit 232 sets the horizontal angle of the extraction range E1 so that the extraction range E1 and the width β1 of the field of view at the certain reference position are 160°. Determines the (horizontal) width. That is, a straight line connecting a point D1 (a point on the wall 63 in FIGS. 3 and 4A) appearing at a first intersection point C1 between the outer edge of the extraction range E1 and the line L1 to the imaging unit 21, and the outer edge of the extraction range E1. and the line L1 at the second intersection point C2 (the point on the wall 64 in FIGS. 3 and 4A) and the straight line connecting the imaging unit 21 (extraction range E1 and the certain reference position The width of the field of view β1) at is 160° (see FIGS. 3 and 4A).

以上説明した例(以下、第1例と言う)では、撮像部21の仰角(又は俯角)は0°であった。撮像部21の仰角又は俯角が0°とは異なる場合は、これに応じて設定部232は、基準位置と、抽出範囲E1及び上記或る基準位置における視野の広さβ1とのうち少なくとも一方を別の大きさにする。そのため、この場合は、設定部232は、第1例における抽出範囲E1とは異なる範囲を抽出範囲として設定する。以下では、撮像部21の仰角が第1例と異なる、第2例について、図6~8Bを参照して説明する。 In the example described above (hereinafter referred to as the first example), the elevation angle (or depression angle) of the imaging unit 21 was 0°. If the angle of elevation or angle of depression of the imaging unit 21 is different from 0°, the setting unit 232 accordingly sets at least one of the reference position, the extraction range E1, and the width β1 of the field of view at the certain reference position. make another size. Therefore, in this case, the setting unit 232 sets a range different from the extraction range E1 in the first example as the extraction range. A second example in which the elevation angle of the imaging unit 21 is different from that of the first example will be described below with reference to FIGS. 6 to 8B.

図6において、ロビーインターホン2の筐体20は、取付台3に設置される。撮像部21は、筐体20を介して取付台3に設置される。取付台3は、集合住宅の共用スペースに設置される。取付台3は、上下方向(鉛直方向)に長い箱状である。左右方向(図6の紙面奥行き方向)から見て、取付台3は台形状である。取付台3は、水平面に対して傾斜した傾斜面31を有している。傾斜面31には、ロビーインターホン2の筐体20が取り付けられる。傾斜面31は、撮像部21が取り付けられる取付面に相当する。ここでは、筐体20が傾斜面31に取り付けられることにより、筐体20に保持された撮像部21が間接的に傾斜面31に取り付けられる。 In FIG. 6 , the housing 20 of the lobby intercom 2 is installed on the mount 3 . The imaging unit 21 is installed on the mount 3 via the housing 20 . The mounting base 3 is installed in a shared space of the housing complex. The mount 3 has a box-like shape elongated in the up-down direction (vertical direction). The mount 3 has a trapezoidal shape when viewed from the left-right direction (the depth direction of the paper surface of FIG. 6). The mount 3 has an inclined surface 31 inclined with respect to the horizontal plane. A housing 20 of the lobby intercom 2 is attached to the inclined surface 31 . The inclined surface 31 corresponds to a mounting surface on which the imaging section 21 is mounted. Here, by attaching the housing 20 to the inclined surface 31 , the imaging unit 21 held by the housing 20 is indirectly attached to the inclined surface 31 .

水平面に対する傾斜面31の傾斜角度θ2は15°である。床66からの撮像素子211の高さH2は、撮像部21が壁61(図2参照)に取り付けられる場合よりも低い。傾斜角度θ2、高さH2及びレンズ212の傾斜角度の各々の情報は、インターホンシステム10の施工時において施工者が操作部25を操作することでロビーインターホン2に入力される。 The inclination angle θ2 of the inclined surface 31 with respect to the horizontal plane is 15°. The height H2 of the imaging element 211 from the floor 66 is lower than when the imaging section 21 is attached to the wall 61 (see FIG. 2). Information on each of the inclination angle θ2, the height H2, and the inclination angle of the lens 212 is input to the lobby intercom 2 by the operator operating the operation unit 25 during construction of the intercom system 10 .

ロビーインターホン2が取付台3に取り付けられた状態では、撮像素子211の光軸P2は、水平面及び鉛直面と交差する。光軸P2の方向は、取付台3の傾斜面31の法線の方向と異なる方向である。 When the lobby intercom 2 is attached to the mount 3, the optical axis P2 of the imaging element 211 intersects the horizontal plane and the vertical plane. The direction of the optical axis P<b>2 is different from the direction of the normal to the inclined surface 31 of the mount 3 .

図7は、撮像部21で生成される撮像画像(画像信号)の概略図である。すなわち、図7に示される撮像画像は、画像補正部23で歪み補正がされる前であって、画像補正部23で抽出範囲E3が抽出される前の、全範囲A3の画像である。図7に示す撮像画像では、4隅にロビーインターホン2の筐体20の一部が写っている。 FIG. 7 is a schematic diagram of a captured image (image signal) generated by the imaging unit 21. As shown in FIG. That is, the captured image shown in FIG. 7 is an image of the entire range A3 before distortion correction by the image correction unit 23 and before the extraction range E3 is extracted by the image correction unit 23 . In the picked-up image shown in FIG. 7, a part of housing|casing 20 of the lobby intercom 2 is reflected in the four corners.

図7の撮像画像では、来訪者100の顔101の中心(目及び鼻の辺り)が中央から下にずれて位置する。そのため、図7の撮像画像では、図4A(第1例)の撮像画像と比較して、天井65が占める面積の比率が大きい。ここで、もし仮に、レンズ212の向きを変えることのみによって天井65が写る領域を小さくしようとすると、撮像画像に、ロビーインターホン2の筐体20がより大きく写る可能性がある。これに対して、本実施形態の画像処理システムX1では、抽出部231が撮像画像の全範囲A3のうち抽出範囲E3の画像を抽出することにより、抽出範囲E3において天井65が占める面積の比率が、撮像画像の全範囲A3において天井65が占める面積の比率よりも小さくなる。したがって、筐体20がより大きく写る可能性を低減できる。 In the captured image of FIG. 7, the center of the face 101 of the visitor 100 (around the eyes and nose) is shifted downward from the center. Therefore, in the captured image of FIG. 7, the ratio of the area occupied by the ceiling 65 is larger than that of the captured image of FIG. 4A (first example). Here, if an attempt is made to reduce the area where the ceiling 65 is reflected only by changing the direction of the lens 212, there is a possibility that the housing 20 of the lobby intercom 2 will appear larger in the captured image. On the other hand, in the image processing system X1 of the present embodiment, the extraction unit 231 extracts the image of the extraction range E3 from the entire range A3 of the captured image, so that the ratio of the area occupied by the ceiling 65 in the extraction range E3 is , is smaller than the ratio of the area occupied by the ceiling 65 in the entire range A3 of the captured image. Therefore, it is possible to reduce the possibility that the housing 20 will appear larger.

画像補正部23の設定部232は、来訪者(来訪者100に限らない。例えば、平均身長を有する大人)の顔の位置が抽出範囲E3の中心となるように、抽出範囲E3を設定する。また、設定部232は、撮像画像の抽出範囲E3が全範囲A3よりも上下方向及び水平方向に小さくなるように抽出範囲E3を設定する。 The setting unit 232 of the image correction unit 23 sets the extraction range E3 so that the face of the visitor (not limited to the visitor 100. For example, an adult having an average height) is at the center of the extraction range E3. Also, the setting unit 232 sets the extraction range E3 of the captured image so that the extraction range E3 is smaller than the entire range A3 in the vertical direction and the horizontal direction.

画像補正部23の抽出部231は、撮像部21で生成された撮像画像から、設定部232で設定された抽出範囲E3の画像を抽出する。 The extraction unit 231 of the image correction unit 23 extracts the image of the extraction range E3 set by the setting unit 232 from the captured image generated by the imaging unit 21 .

画像補正部23の歪み補正部233は、抽出部231で抽出された抽出範囲E3の画像に対して、水平方向(図7の左右方向)及び鉛直方向(図7の上下方向)のうち少なくとも一方の方向の歪み補正を行う。 The distortion correction unit 233 of the image correction unit 23 corrects at least one of the horizontal direction (horizontal direction in FIG. 7) and vertical direction (vertical direction in FIG. 7) with respect to the image of the extraction range E3 extracted by the extraction unit 231. Performs distortion correction in the direction of .

図7に示すように、歪み補正前の撮像画像における抽出範囲E3の形状は、抽出範囲E3の上下左右の境界線を構成する4つの曲線で囲まれた形状である。より詳細には、この抽出範囲E3の形状は、アーチ状である。図8Aに、歪み補正部233による歪み補正後の画像を図示する。歪み補正後の画像の全体が抽出範囲E4に相当する。歪み補正後の画像における抽出範囲E4の形状は、歪み補正前の撮像画像における抽出範囲E3の形状とは異なる。歪み補正後の画像において、抽出範囲E4の形状は、長方形状である。 As shown in FIG. 7, the shape of the extraction range E3 in the captured image before distortion correction is a shape surrounded by four curved lines forming upper, lower, left, and right boundary lines of the extraction range E3. More specifically, the shape of this extraction range E3 is arch-shaped. FIG. 8A shows an image after distortion correction by the distortion correction unit 233. As shown in FIG. The entire image after distortion correction corresponds to the extraction range E4. The shape of the extraction range E4 in the image after distortion correction is different from the shape of the extraction range E3 in the captured image before distortion correction. In the image after distortion correction, the shape of the extraction range E4 is rectangular.

設定部232は、撮像部21の仰角に基づいて、抽出範囲E3を設定する。図7に示す第2例では、撮像部21の仰角は15°である。 The setting unit 232 sets the extraction range E3 based on the elevation angle of the imaging unit 21 . In the second example shown in FIG. 7, the elevation angle of the imaging section 21 is 15°.

撮像部21から見た抽出範囲E3における水平方向の視野の広さが、抽出範囲E3における或る基準位置において或る大きさになるように、設定部232は抽出範囲E3を設定する。設定部232は、撮像部21の仰角に基づいて、上記或る基準位置及び上記或る大きさのうち少なくとも一方(本実施形態では両方)を決定する。 The setting unit 232 sets the extraction range E3 so that the width of the horizontal field of view in the extraction range E3 viewed from the imaging unit 21 is a certain size at a certain reference position in the extraction range E3. The setting unit 232 determines at least one of the certain reference position and the certain size (both in this embodiment) based on the elevation angle of the imaging unit 21 .

撮像部21の仰角が15°の場合、設定部232は例えば、抽出範囲E3に相当する領域における基準位置を、上下方向における抽出範囲E3の中心の位置に決定する。ここでは、床66から基準位置までの距離は、床66からの撮像部21の高さH2(図6参照)よりも高い。基準位置は、例えば、設定部232が推定した、来訪者の顔の中心の位置に一致する。図7には、基準位置を通る線L3を図示している。線L3は、水平面と平行である。線L3は、鉛直方向において抽出範囲E3の上側の境界線との間の距離が抽出範囲E3の下側の境界線との間の距離と等しい点の集合である。図8Aには、基準位置を通る線L4を図示している。線L4は、水平面と平行である。線L4は、抽出範囲E4を上下に2等分している。ただし、線L3、L4は、仮想的な線であり、実際に表示される線ではない。 When the elevation angle of the imaging unit 21 is 15°, the setting unit 232, for example, determines the reference position in the region corresponding to the extraction range E3 to be the center position of the extraction range E3 in the vertical direction. Here, the distance from the floor 66 to the reference position is higher than the height H2 (see FIG. 6) of the image pickup unit 21 from the floor 66 . The reference position matches, for example, the position of the center of the visitor's face estimated by the setting unit 232 . FIG. 7 shows a line L3 passing through the reference position. Line L3 is parallel to the horizontal plane. The line L3 is a set of points whose distance from the upper boundary line of the extraction range E3 in the vertical direction is equal to the distance from the lower boundary line of the extraction range E3. FIG. 8A shows a line L4 passing through the reference position. Line L4 is parallel to the horizontal plane. A line L4 vertically bisects the extraction range E4. However, the lines L3 and L4 are virtual lines, not lines that are actually displayed.

撮像部21の仰角又は俯角が大きいほど、設定部232は、基準位置を抽出範囲E3の上端に近づけてもよいし、抽出範囲E3の下端に近づけてもよい。撮像部21の仰角又は俯角と基準位置との関係は、撮像画像における来訪者の位置に応じて適宜決定されればよい。 As the elevation angle or depression angle of the imaging unit 21 increases, the setting unit 232 may bring the reference position closer to the upper end of the extraction range E3 or closer to the lower end of the extraction range E3. The relationship between the elevation angle or depression angle of the imaging unit 21 and the reference position may be appropriately determined according to the position of the visitor in the captured image.

また、撮像部21の仰角又は俯角が大きいほど、設定部232は、上記或る大きさを小さくする。これは、撮像部21の仰角又は俯角が大きいほど、撮像部21と来訪者の顔との距離が長くなり、撮像画像において来訪者の顔が写る面積が小さくなると考えられるためである。設定部232は、上記或る大きさを小さくすることで、抽出範囲E3全体の面積に対する来訪者の顔が写る面積の比率を大きくする。 Also, the setting unit 232 reduces the certain size as the elevation angle or depression angle of the imaging unit 21 increases. This is because the greater the elevation angle or depression angle of the imaging unit 21, the longer the distance between the imaging unit 21 and the visitor's face, and the smaller the area in which the visitor's face is captured in the captured image. By reducing the certain size, the setting unit 232 increases the ratio of the area in which the visitor's face appears to the area of the entire extraction range E3.

撮像部21の仰角が15°の場合、設定部232は例えば、上記或る大きさを140°に決定する。これは、第1例において撮像部21の仰角が0°の場合の上記或る大きさである160°よりも小さい。 When the elevation angle of the imaging unit 21 is 15°, the setting unit 232 determines the certain size to be 140°, for example. This is smaller than 160°, which is the certain size when the elevation angle of the imaging unit 21 is 0° in the first example.

次に、第3例について、図7及び図8Bを用いて説明する。第3例では、抽出部231は、図7(第2例)における抽出範囲E3とは別の抽出範囲E5の画像を抽出する、第3例では、撮像部21の設置状態は、第2例と同様である(図6参照)。第3例では、撮像部21の仰角は、第2例と同様に15°である。第3例では、抽出部231は、抽出範囲E5の画像を抽出する。図7において、抽出範囲E3、E5は下側ほど横幅が大きいアーチ形である。第3例では、設定部232は、抽出範囲E5の下端を予め決定する。設定部232は、基準位置を、抽出範囲E5のうち最も横幅が大きい位置である下端に設定する。図7には、第3例における基準位置を通る線L5を図示している。図8Bには、第3例における基準位置を通る線L6を図示している。線L5、L6は、水平面と平行である。ただし、線L5、L6は、仮想的な線であり、実際に表示される線ではない。 Next, a third example will be described with reference to FIGS. 7 and 8B. In the third example, the extraction unit 231 extracts an image of an extraction range E5 different from the extraction range E3 in FIG. 7 (second example). (see FIG. 6). In the third example, the elevation angle of the imaging unit 21 is 15°, as in the second example. In the third example, the extraction unit 231 extracts the image of the extraction range E5. In FIG. 7, the extraction ranges E3 and E5 are arch-shaped with a wider width toward the bottom. In the third example, the setting unit 232 predetermines the lower end of the extraction range E5. The setting unit 232 sets the reference position to the bottom end, which is the position with the largest width in the extraction range E5. FIG. 7 illustrates a line L5 passing through the reference position in the third example. FIG. 8B illustrates a line L6 passing through the reference position in the third example. Lines L5 and L6 are parallel to the horizontal plane. However, the lines L5 and L6 are virtual lines, not lines that are actually displayed.

設定部232は、基準位置を抽出範囲E5のうち最も横幅が大きい位置(下端)に設定し、基準位置における上記或る大きさを140°に決定する。 The setting unit 232 sets the reference position to the position (lower end) where the width is the largest in the extraction range E5, and determines the certain size at the reference position to be 140°.

図8Aに示す第2例では、図8Bに示す第3例と比較して、基準位置が異なる。その結果、図8Aに示す第2例において抽出範囲E4全体の面積に対する来訪者100の顔101が占める面積の比率は、図8Bに示す第3例において抽出範囲E6全体の面積に対する来訪者100の顔101が占める面積の比率よりも小さい。つまり、第2例では、基準位置を上下方向における抽出範囲E4の中心(線L4)と一致させているために、第3例と比較して、抽出範囲E6全体の面積に対する来訪者100の顔101が占める面積の比率が大きくなる。ここで、基準位置と上下方向における抽出範囲E4の中心とが「一致する」とは、厳密に一致している場合に限定されず、許容される程度の誤差があってもよい。「一致する」とは、例えば、抽出範囲E4の画像中において基準位置と上下方向における抽出範囲E4の中心との間に、抽出範囲E4の上下の幅の5%以下のずれがある場合を含む。 In the second example shown in FIG. 8A, the reference position is different compared to the third example shown in FIG. 8B. As a result, the ratio of the area occupied by the face 101 of the visitor 100 to the entire area of the extraction range E4 in the second example shown in FIG. It is smaller than the ratio of the area occupied by the face 101 . That is, in the second example, since the reference position coincides with the center (line L4) of the extraction range E4 in the vertical direction, the face of the visitor 100 with respect to the area of the entire extraction range E6 is larger than that in the third example. The ratio of the area occupied by 101 increases. Here, “matching” the reference position and the center of the extraction range E4 in the vertical direction is not limited to the case of exact matching, and there may be a permissible degree of error. "Match" includes, for example, the case where there is a deviation of 5% or less of the vertical width of the extraction range E4 between the reference position and the center of the extraction range E4 in the vertical direction in the image of the extraction range E4. .

本実施形態の画像処理システムX1において、操作部25は、抽出範囲E2(又はE4あるいはE6)を指定する操作を受け付ける。具体的には、インターホンシステム10の施工時において施工者は、ロビーインターホン2の表示部27に表示される画像を見ながら、操作部25を操作する。施工者は、操作部25を操作することにより、表示部27に表示される画像の範囲を変更できる。施工者は、操作部25を操作することにより、抽出範囲E2(又はE4あるいはE6)の大きさ及び中心位置を変更できる。例えば、施工者は、操作部25を操作することにより、抽出範囲を、図8Aに示す第2例の抽出範囲E4と、図8Bに示す第3例の抽出範囲E6とから選択できる。 In the image processing system X1 of this embodiment, the operation unit 25 accepts an operation to specify the extraction range E2 (or E4 or E6). Specifically, when installing the intercom system 10 , the installer operates the operation unit 25 while viewing the image displayed on the display unit 27 of the lobby intercom 2 . The builder can change the range of the image displayed on the display unit 27 by operating the operation unit 25 . By operating the operation unit 25, the builder can change the size and center position of the extraction range E2 (or E4 or E6). For example, by operating the operation unit 25, the builder can select the extraction range from the extraction range E4 of the second example shown in FIG. 8A and the extraction range E6 of the third example shown in FIG. 8B.

本実施形態の画像処理システムX1において、住戸親機1の表示部12に表示される画像は、抽出範囲E2(又はE4あるいはE6)の画像と、抽出範囲E2(又はE4あるいはE6)よりも広い範囲(例えば、全範囲A1又はA3)の画像とから選択可能であってもよい。例えば、住戸内の居住者等が住戸親機1の操作部15を操作することで、表示部12に表示される画像を居住者等が選択可能であってもよい。 In the image processing system X1 of this embodiment, the image displayed on the display unit 12 of the dwelling unit base unit 1 is an image of the extraction range E2 (or E4 or E6) and an image wider than the extraction range E2 (or E4 or E6). It may be possible to select between images of range (eg, full range A1 or A3). For example, a resident or the like in the dwelling unit may be able to select an image displayed on the display unit 12 by operating the operation unit 15 of the dwelling unit base unit 1 .

本実施形態の画像処理システムX1によれば、撮像部21で生成される撮像画像の全範囲A1(又はA3)が写った画像と比較して、設定部232が設定した範囲である抽出範囲E2(又はE4あるいはE6)の画像を見やすくできる。より詳細には、抽出範囲E2(又はE4あるいはE6)の画像に写っている人(来訪者100)の顔101等を見やすくできる。更に詳細には、撮像画像の全範囲A1(又はA3)のうち来訪者100の顔101が写っていない範囲の一部を、抽出範囲E2(又はE4あるいはE6)から除外できる。つまり、抽出範囲E2(又はE4あるいはE6)の画像において、来訪者100の顔101が占める面積の比率を大きくできるので、顔101を見やすくできる。 According to the image processing system X1 of the present embodiment, the extraction range E2, which is the range set by the setting unit 232, is compared with the image in which the entire range A1 (or A3) of the captured image generated by the imaging unit 21 is captured. (or E4 or E6) can be made easier to see. More specifically, the face 101 and the like of the person (visitor 100) appearing in the image of the extraction range E2 (or E4 or E6) can be made easier to see. More specifically, a part of the range A1 (or A3) of the captured image in which the face 101 of the visitor 100 is not shown can be excluded from the extraction range E2 (or E4 or E6). That is, in the image of the extraction range E2 (or E4 or E6), the ratio of the area occupied by the face 101 of the visitor 100 can be increased, so the face 101 can be easily seen.

(変形例1)
次に、実施形態の変形例1について、図9A~9Dを用いて説明する。実施形態と同様の構成については、同一の符号を付して説明を省略する。
(Modification 1)
Next, Modification 1 of the embodiment will be described with reference to FIGS. 9A to 9D. Configurations similar to those of the embodiment are denoted by the same reference numerals, and descriptions thereof are omitted.

図9Aは、撮像画像から抽出範囲の画像が抽出されない場合に住戸親機1の表示部12に表示される画像を示している。図9Aにおいて1点鎖線は、抽出範囲の複数(図9Aでは3つ)の候補71、72、73を示す仮想的な線であり、実際に表示される線ではない。 FIG. 9A shows an image displayed on the display unit 12 of the dwelling unit main unit 1 when the image of the extraction range is not extracted from the captured image. In FIG. 9A, the dashed-dotted lines are imaginary lines indicating a plurality of (three in FIG. 9A) candidates 71, 72, and 73 of the extraction range, and are not actually displayed lines.

画像補正部23の設定部232は、抽出範囲の複数の候補71、72、73を決定する。住戸親機1の操作部15(候補入力部)は、抽出範囲を複数の候補71、72、73の中から指定する候補情報の入力を受け付ける。 The setting unit 232 of the image correction unit 23 determines a plurality of candidates 71, 72, 73 for the extraction range. The operation unit 15 (candidate input unit) of the dwelling unit base unit 1 receives input of candidate information specifying an extraction range from among the plurality of candidates 71 , 72 , and 73 .

図9Aに、抽出範囲の複数の候補71、72、73の範囲を図示する。設定部232は、抽出範囲としての複数の候補71、72、73の各々の中心の位置710、720、730が、撮像画像中において水平方向に互いに異なるように、複数の候補71、72、73を決定する。 FIG. 9A illustrates ranges of a plurality of candidates 71, 72, 73 for the extraction range. The setting unit 232 sets the plurality of candidates 71, 72, 73 as the extraction range so that the respective center positions 710, 720, 730 of the plurality of candidates 71, 72, 73 are different from each other in the horizontal direction in the captured image. to decide.

図9Aに示すように、撮像画像から抽出範囲の画像が抽出されない場合における画像において、抽出範囲の複数の候補71、72、73の各々の中心の位置710、720、730は、水平方向(左右方向)に並んでいる。図9Aでは、左から候補71の中心の位置710、候補72の中心の位置720、候補73の中心の位置730の順に並んでいる。図9Aには、撮像画像そのものではなく、歪み補正部233により撮像画像が歪み補正された後の画像を図示しているが、撮像画像と、図9Aに示す画像とにおいて、複数の候補71、72、73の各々の中心の位置710、720、730が水平方向に並んでいるという点は共通である。 As shown in FIG. 9A, in an image obtained when no extraction range image is extracted from the captured image, center positions 710, 720, and 730 of a plurality of extraction range candidates 71, 72, and 73 are aligned in the horizontal direction (left and right). direction). In FIG. 9A, from the left, the center position 710 of the candidate 71, the center position 720 of the candidate 72, and the center position 730 of the candidate 73 are arranged in this order. FIG. 9A shows not the captured image itself, but the image after the distortion of the captured image has been corrected by the distortion correction unit 233. In the captured image and the image shown in FIG. 9A, a plurality of candidates 71, The common point is that respective center positions 710, 720, 730 of 72, 73 are aligned in the horizontal direction.

設定部232は、例えば、実施形態と同様の手順で1つの抽出範囲を仮に設定してから、仮に設定した抽出範囲と、仮に設定した抽出範囲を水平方向(左右方向)にずらした範囲である複数の抽出範囲とを、抽出範囲の候補71、72、73として決定する。 For example, the setting unit 232 temporarily sets one extraction range in the same procedure as in the embodiment, and then shifts the temporarily set extraction range and the temporarily set extraction range in the horizontal direction (horizontal direction). A plurality of extraction ranges are determined as extraction range candidates 71 , 72 , and 73 .

設定部232は、まず、候補71、72、73のうちいずれか1つを抽出範囲に設定する。ここでは、設定部232がまずは候補72を抽出範囲に設定すると仮定する。ロビーインターホン2から、居住者を呼び出すための制御信号(呼出信号)が住戸親機1へ送信されると、住戸親機1の表示部12には、図9Bに示すように、候補72を抽出範囲とする画像が表示される。ここで、表示部12には、2つの方向キー81、82が表示される。2つの方向キー81、82は、抽出範囲の画像に重なって表示される。一方の方向キー81は左向きの三角印であり、他方の方向キー82は右向きの三角印である。ここで、住戸親機1の表示部12は、タッチパネルディスプレイであり、操作部15を兼ねている。 The setting unit 232 first sets any one of the candidates 71, 72, and 73 as the extraction range. Here, it is assumed that the setting unit 232 first sets the candidate 72 as the extraction range. When a control signal (call signal) for calling a resident is transmitted from the lobby intercom 2 to the dwelling unit base unit 1, a candidate 72 is extracted as shown in FIG. 9B on the display unit 12 of the dwelling unit master unit 1. A range image is displayed. Here, two direction keys 81 and 82 are displayed on the display unit 12 . Two direction keys 81 and 82 are displayed overlapping the image of the extraction range. One direction key 81 is a left-pointing triangle, and the other direction key 82 is a right-pointing triangle. Here, the display unit 12 of the dwelling unit base unit 1 is a touch panel display and also serves as the operation unit 15 .

図9Bに示す画像が表示部12に表示されている場合に、住戸内の居住者が表示部12に表示された方向キー81をタッチすると、図9Cに示すように、表示部12には、候補71を抽出範囲とする画像が表示される。また、表示部12には、右向きの三角印である方向キー82が表示される。住戸内の居住者が方向キー82をタッチすると、図9Bに示すように、表示部12には、候補72を抽出範囲とする画像が再び表示される。 When the image shown in FIG. 9B is displayed on the display unit 12, when the resident in the dwelling unit touches the direction key 81 displayed on the display unit 12, as shown in FIG. 9C, the display unit 12 displays An image with the candidate 71 as an extraction range is displayed. The display unit 12 also displays a direction key 82 that is a right-pointing triangular mark. When the resident in the dwelling unit touches the direction key 82, the image with the candidate 72 as the extraction range is displayed again on the display unit 12 as shown in FIG. 9B.

図9Bに示す画像が表示部12に表示されている場合に、住戸内の居住者が表示部12に表示された方向キー82をタッチすると、図9Dに示すように、表示部12には、候補73を抽出範囲とする画像が表示される。また、表示部12には、左向きの三角印である方向キー81が表示される。住戸内の居住者が方向キー81をタッチすると、図9Bに示すように、表示部12には、候補72を抽出範囲とする画像が再び表示される。 When the image shown in FIG. 9B is displayed on the display unit 12, when the resident in the dwelling unit touches the direction key 82 displayed on the display unit 12, as shown in FIG. An image with the candidate 73 as an extraction range is displayed. The display unit 12 also displays a direction key 81 that is a left-pointing triangular mark. When the resident in the dwelling unit touches the direction key 81, the image with the candidate 72 as the extraction range is displayed again on the display unit 12 as shown in FIG. 9B.

つまり、方向キー81又は82をタッチする操作がされると、表示部12を兼ねる操作部15は、抽出範囲を複数の候補71、72、73の中から指定する候補情報を、通信部11を介してロビーインターホン2の設定部232へ出力する。設定部232は、操作部15において指定された候補を抽出範囲とする。ここで、住戸親機1の画像処理部14が、抽出範囲を複数の候補71、72、73の中から指定する候補情報の入力を受け付け、候補情報に応じて抽出範囲を複数の候補71、72、73の中から切り替えてもよい。 That is, when an operation of touching the direction key 81 or 82 is performed, the operation unit 15 that also serves as the display unit 12 transmits candidate information specifying the extraction range from among the plurality of candidates 71, 72, and 73 to the communication unit 11. Output to the setting unit 232 of the lobby intercom 2 via. The setting unit 232 sets the candidate specified by the operation unit 15 as the extraction range. Here, the image processing unit 14 of the dwelling unit base unit 1 receives input of candidate information specifying the extraction range from among the plurality of candidates 71, 72, and 73, and selects the extraction range from the plurality of candidates 71, 71, 73 according to the candidate information. 72 and 73 may be switched.

本変形例によれば、住戸内の居住者が操作部15へ操作を行うことで、抽出範囲を変更できる。したがって、居住者は、来訪者100の顔101をより見やすい候補を抽出範囲とすることができる。 According to this modification, the extraction range can be changed by the resident in the dwelling unit operating the operation unit 15 . Therefore, the resident can set the extraction range to a candidate that makes it easier to see the face 101 of the visitor 100 .

表示部12に表示される画像において、撮像部21の設置場所の天井及び床が写っている領域を低減するためには、抽出範囲の上下方向の長さを短くすることになる。この場合に、抽出範囲の上下方向の長さを短くすることに応じて抽出範囲の左右方向の長さも短くすると、表示部12に表示させたい範囲が抽出範囲内に含まれなくなる可能性があるが、本変形例により、このような問題に対処できる。 In the image displayed on the display unit 12, in order to reduce the area where the ceiling and floor of the installation location of the imaging unit 21 are shown, the length of the extraction range in the vertical direction is shortened. In this case, if the length of the extraction range in the horizontal direction is shortened in accordance with the length of the extraction range in the vertical direction, the range desired to be displayed on the display unit 12 may not be included in the extraction range. However, this modified example can deal with such a problem.

本変形例の更なる変形例として、インターホンシステム10の施工時に施工者がロビーインターホン2の操作部25を操作することにより、複数の候補71、72、73の中からいずれかの候補を抽出範囲として設定してもよい。以後、ロビーインターホン2の表示部27及び住戸親機1の表示部12に表示される画像は、施工時に施工者が設定した候補を抽出範囲とする画像となる。 As a further modification of this modification, a construction worker operates the operation unit 25 of the lobby intercom 2 at the time of construction of the intercom system 10, so that one of the candidates 71, 72, and 73 is extracted. may be set as Henceforth, the image displayed on the display part 27 of the lobby intercom 2 and the display part 12 of the dwelling unit main unit 1 becomes an image whose extraction range is the candidate set by the builder at the time of construction.

また、本変形例において、複数の候補71、72、73の中からいずれを抽出範囲として設定するかは、自動で決定されてもよい。例えば、ロビーインターホン2の画像補正部23により、複数の候補71、72、73の中からいずれを抽出範囲として設定するかが決定されてもよい。 Further, in this modification, which of the plurality of candidates 71, 72, 73 is set as the extraction range may be automatically determined. For example, the image correction unit 23 of the lobby intercom 2 may determine which of the plurality of candidates 71, 72, 73 to set as the extraction range.

(変形例2)
次に、実施形態の変形例2について、図10A、10Bを用いて説明する。実施形態と同様の構成については、同一の符号を付して説明を省略する。
(Modification 2)
Next, Modification 2 of the embodiment will be described with reference to FIGS. 10A and 10B. Configurations similar to those of the embodiment are denoted by the same reference numerals, and descriptions thereof are omitted.

図10Aは、撮像画像から抽出範囲の画像が抽出されない場合に住戸親機1の表示部12に表示される画像を示している。図10Aにおいて太線の1点鎖線は、抽出範囲E7を示す仮想的な線であり、実際に表示される線ではない。また、図10Aにおいて細線の1点鎖線は、画像においてけられが発生している範囲75、76を示す仮想的な線であり、実際に表示される線ではない。 FIG. 10A shows an image displayed on the display unit 12 of the dwelling unit main unit 1 when the image of the extraction range is not extracted from the captured image. In FIG. 10A, the thick one-dot chain line is a virtual line indicating the extraction range E7, not a line that is actually displayed. Also, the thin dashed lines in FIG. 10A are imaginary lines indicating ranges 75 and 76 in which vignetting occurs in the image, and are not actually displayed lines.

図10Aに示すように、画像のうち一部の範囲75、76には、けられが発生している。つまり、範囲75、76には、ロビーインターホン2の筐体20が写っている。範囲75、76の一部は、抽出範囲E7に含まれている。 As shown in FIG. 10A, vignetting occurs in some ranges 75 and 76 of the image. That is, in the ranges 75 and 76, the housing 20 of the lobby intercom 2 is shown. Parts of the ranges 75 and 76 are included in the extraction range E7.

本変形例では、図10Bに示すように、表示部12、27は、抽出範囲E7のうち、けられが発生している範囲75、76の少なくとも一部と重ねて、メニュー77を表示する。そのため、けられが発生している範囲75、76がメニュー77に隠れる。これにより、画像の見栄えが向上する。図10Bにおいて破線は、けられが発生している範囲を示す仮想的な線であり、実際に表示される線ではない。 In this modification, as shown in FIG. 10B, the display units 12 and 27 display a menu 77 overlapping at least a portion of the vignetting areas 75 and 76 in the extracted area E7. Therefore, the ranges 75 and 76 where vignetting occurs are hidden in the menu 77 . This improves the appearance of the image. The dashed lines in FIG. 10B are imaginary lines indicating the vignetting range, and are not actually displayed lines.

メニュー77は、例えば、通話を終了するための釦の表示、通話中であるか否かの表示、ロビーインターホン2のスピーカから出力される音の音量を設定するための釦の表示、当該音量の設定値の表示、画面の明るさを設定するための釦の表示、画面の明るさの表示、画像に逆光補正を行うか否かを選択するための釦、画像に逆光補正を行っているか否かの表示等を含む。 The menu 77 includes, for example, display of a button for ending a call, display of whether a call is in progress, display of a button for setting the volume of sound output from the speaker of the lobby intercom 2, display of the volume, Display of setting value, display of button for setting screen brightness, display of screen brightness, button for selecting whether to perform backlight compensation on the image, whether backlight compensation is performed on the image Including the display of

本変形例は、変形例1と適宜組み合わせて実現されてもよい。 This modification may be realized by appropriately combining with modification 1. FIG.

(実施形態のその他の変形例)
次に、実施形態のその他の変形例を列挙する。以下の変形例は、適宜組み合わせて実現されてもよい。また、以下の変形例は、変形例1及び変形例2のうち少なくとも一方と適宜組み合わせて実現されてもよい。
(Other modifications of the embodiment)
Next, other modifications of the embodiment will be listed. The following modified examples may be implemented in combination as appropriate. Moreover, the following modifications may be realized by appropriately combining at least one of modification 1 and modification 2.

画像処理システムX1は、ロビーインターホン2に備えられることに限定されない。画像処理システムX1は、住戸親機1に備えられていてもよいし、住戸親機1とロビーインターホン2との間の通信を制御する制御装置に備えられていてもよいし、インターホンシステム10の外部のサーバに備えられていてもよい。また、画像処理システムX1の複数の構成が、複数の筐体に分散して設けられていてもよい。 The image processing system X1 is not limited to being provided in the lobby intercom 2 . The image processing system X1 may be provided in the dwelling unit main unit 1, may be provided in a control device that controls communication between the dwelling unit main unit 1 and the lobby intercom 2, or may be provided in the intercom system 10. It may be provided in an external server. Also, a plurality of components of the image processing system X1 may be distributed over a plurality of housings.

また、ロビーインターホン2に代えて、例えば、住戸の玄関前等に設置されるドアホンが、ロビーインターホン2の少なくとも一部の構成を有していてもよい。ドアホンに撮像部21が備えられる場合は、撮像部21が撮像する特定領域は、住戸の玄関先となる。 Further, instead of the lobby intercom 2, for example, a door phone installed in front of the entrance of a dwelling unit may have at least a part of the configuration of the lobby intercom 2. When the door phone is provided with the imaging unit 21, the specific area imaged by the imaging unit 21 is the entrance of the dwelling unit.

また、撮像部21で生成された撮像画像の中での来訪者100の顔101の位置を画像補正部23の設定部232が推定することに代えて、インターホンシステム10に備えらえた顔検出部により顔101の位置を検出してもよい。顔検出部は、例えば、撮像部21で生成された撮像画像に基づいて顔101の位置を検出する。顔検出部は、例えば、プロセッサを含むマイクロコントローラにより構成され、顔検出用のアルゴリズムをプログラムに基づいて実行することで、顔101の位置を検出する。顔検出用のアルゴリズムは、例えば、インターホンシステム10の外部のニューラルネットワークにおいてディープラーニングにより生成される。 Further, instead of the setting unit 232 of the image correcting unit 23 estimating the position of the face 101 of the visitor 100 in the captured image generated by the imaging unit 21, the face detection unit provided in the intercom system 10 The position of the face 101 may be detected by The face detection unit detects the position of the face 101 based on the captured image generated by the imaging unit 21, for example. The face detection unit is configured by, for example, a microcontroller including a processor, and detects the position of the face 101 by executing a face detection algorithm based on a program. An algorithm for face detection is generated by deep learning in a neural network outside the intercom system 10, for example.

(まとめ)
以上説明した実施形態等から、以下の態様が開示されている。
(summary)
The following aspects are disclosed from the embodiments and the like described above.

第1の態様に係る画像処理システムX1は、抽出部231と、設定部232と、を備える。抽出部231は、抽出範囲(抽出範囲E1、E2、E3、……、又はE7)の画像を抽出する。抽出範囲は、インターホンシステム10に用いられる撮像部21が生成した撮像画像の全範囲(全範囲A1又はA3)のうち一部の範囲である。設定部232は、抽出範囲を設定する。 The image processing system X<b>1 according to the first aspect includes an extraction unit 231 and a setting unit 232 . The extraction unit 231 extracts the image of the extraction range (extraction range E1, E2, E3, . . . , or E7). The extraction range is a partial range of the entire range (full range A1 or A3) of the captured image generated by the imaging unit 21 used in the intercom system 10 . The setting unit 232 sets the extraction range.

上記の構成によれば、抽出部231は、撮像部21で生成される撮像画像に対して、抽出範囲の画像を抽出する処理を施す。したがって、撮像画像の全範囲が写った画像と比較して、抽出部231による抽出後の画像を見やすくできる。より詳細には、抽出範囲の画像に写っている人(来訪者100)等を見やすくできる。例えば、撮像画像の全範囲のうち人が写っていない範囲等の不要な範囲の一部を、抽出範囲から除外できることがある。 According to the above configuration, the extraction unit 231 performs processing for extracting the image of the extraction range from the captured image generated by the imaging unit 21 . Therefore, the image extracted by the extraction unit 231 can be easier to see than an image in which the entire range of the captured image is captured. More specifically, the person (visitor 100) or the like appearing in the image of the extraction range can be made easier to see. For example, it may be possible to exclude a part of an unnecessary range, such as a range in which no person is captured, from the extraction range in the entire range of the captured image.

また、第2の態様に係る画像処理システムX1では、第1の態様において、設定部232は、撮像画像の抽出範囲(抽出範囲E1、E2、E3、……、又はE7)が全範囲(全範囲A1又はA3)よりも上下方向及び水平方向に小さくなるように抽出範囲を設定する。 Further, in the image processing system X1 according to the second aspect, in the first aspect, the setting unit 232 sets the extraction range (extraction range E1, E2, E3, . The extraction range is set so as to be vertically and horizontally smaller than the range A1 or A3).

上記の構成によれば、設定部232において、撮像画像の抽出範囲が全範囲よりも上下方向及び水平方向のうち一方のみにおいて小さくなるように抽出範囲が設定される場合と比較して、より抽出範囲を小さくできる。 According to the above configuration, the extraction range is set in the setting unit 232 so that the extraction range of the captured image is smaller than the entire range in only one of the vertical direction and the horizontal direction. You can reduce the range.

また、第3の態様に係る画像処理システムX1では、第1又は2の態様において、設定部232は、撮像部21の仰角又は俯角に基づいて、抽出範囲(抽出範囲E1、E2、E3、……、又はE7)を設定する。 Further, in the image processing system X1 according to the third aspect, in the first or second aspect, the setting unit 232 sets the extraction ranges (extraction ranges E1, E2, E3, . , or E7).

上記の構成によれば、撮像部21の仰角又は俯角に応じて抽出範囲を変えられる。 According to the above configuration, the extraction range can be changed according to the elevation angle or depression angle of the imaging unit 21 .

また、第4の態様に係る画像処理システムX1では、第3の態様において、撮像部21から見た抽出範囲(抽出範囲E1、E2、E3、……、又はE7)における水平方向の視野の広さ(例えば、視野の広さβ1)が、抽出範囲における或る基準位置において或る大きさになるように、設定部232は抽出範囲を設定する。設定部232は、撮像部21の仰角又は俯角に基づいて、基準位置及び或る大きさのうち少なくとも一方を決定する。 Further, in the image processing system X1 according to the fourth aspect, in the third aspect, the horizontal field of view in the extraction range (extraction range E1, E2, E3, . The setting unit 232 sets the extraction range so that the depth (for example, the width β1 of the field of view) has a certain size at a certain reference position in the extraction range. The setting unit 232 determines at least one of the reference position and the certain size based on the elevation angle or depression angle of the imaging unit 21 .

上記の構成によれば、撮像部21の仰角又は俯角に応じて基準位置及び撮像部21から見た抽出範囲における或る基準位置においての水平方向の視野の広さβ1のうち少なくとも一方を変えられるので、これにより抽出範囲を変えられる。 According to the above configuration, at least one of the width β1 of the horizontal field of view at the reference position and the extraction range viewed from the imaging unit 21 can be changed according to the elevation angle or depression angle of the imaging unit 21. So you can change the extraction range.

また、第5の態様に係る画像処理システムX1は、第1~4の態様のいずれか1つにおいて、入力部(操作部25)を更に備える。入力部は、抽出範囲(抽出範囲E1、E2、E3、……、又はE7)を指定する指定情報の入力を受け付ける。設定部232は、入力部に入力される指定情報に基づいて、抽出範囲を設定する。 Further, the image processing system X1 according to the fifth aspect, in any one of the first to fourth aspects, further includes an input section (operation section 25). The input unit receives input of designation information that designates an extraction range (extraction range E1, E2, E3, . . . , or E7). The setting unit 232 sets the extraction range based on the designation information input to the input unit.

上記の構成によれば、入力部(操作部25)へ指定情報を入力することにより、抽出範囲を変えられる。 According to the above configuration, the extraction range can be changed by inputting the designation information to the input section (operation section 25).

また、第6の態様に係る画像処理システムX1は、第1~5の態様のいずれか1つにおいて、候補入力部(操作部15)を更に備える。候補入力部は、抽出範囲を複数の候補71、72、73の中から指定する候補情報の入力を受け付ける。設定部232は、抽出範囲の複数の候補71、72、73を決定する。 Further, the image processing system X1 according to the sixth aspect, in any one of the first to fifth aspects, further includes a candidate input section (operation section 15). The candidate input unit receives input of candidate information specifying an extraction range from among the plurality of candidates 71 , 72 , 73 . The setting unit 232 determines a plurality of candidates 71, 72, 73 for the extraction range.

上記の構成によれば、指定情報により、抽出範囲の複数の候補71、72、73の中から、画像をより見やすい抽出範囲の候補を指定することができる。 According to the above configuration, it is possible to designate an extraction range candidate that makes it easier to see an image from among the plurality of extraction range candidates 71, 72, and 73, using the designation information.

また、第7の態様に係る画像処理システムX1では、第6の態様において、設定部232は、抽出範囲としての複数の候補71、72、73の各々の中心の位置710、720、730が、撮像画像中において水平方向に互いに異なるように、複数の候補71、72、73を決定する。 Further, in the image processing system X1 according to the seventh aspect, in the sixth aspect, the setting unit 232 sets the respective center positions 710, 720, 730 of the plurality of candidates 71, 72, 73 as extraction ranges to A plurality of candidates 71, 72, 73 are determined so as to be horizontally different from each other in the captured image.

上記の構成によれば、抽出範囲のある候補において抽出範囲の画像に写っている人(来訪者100)等の顔の位置が、抽出範囲の画像の中心位置から水平方向にずれている場合に、抽出範囲の画像の中心位置からの顔の位置の水平方向におけるずれがより小さい他の候補を抽出範囲とすることで、抽出範囲の画像に写っている人等を見やすくできる。 According to the above configuration, when the position of the face of the person (visitor 100) or the like in the image of the extraction range in the candidate with the extraction range is shifted in the horizontal direction from the center position of the image of the extraction range, By using another candidate with a smaller horizontal displacement of the face position from the center position of the image of the extraction range as the extraction range, the person or the like appearing in the image of the extraction range can be easily seen.

第1の態様以外の構成については、画像処理システムX1に必須の構成ではなく、適宜省略可能である。 Configurations other than the first mode are not essential components of the image processing system X1, and can be omitted as appropriate.

また、第8の態様に係るインターホンシステム10は、第1~7の態様のいずれか1つに係る画像処理システムX1と、複数の通信部11、22と、表示部12(又は27)と、を備える。複数の通信部11、22は、音情報を含む信号を相互に通信する。表示部12(又は27)は、撮像画像の全範囲(全範囲A1又はA3)のうち抽出範囲(抽出範囲E1、E2、E3、……、又はE7)の画像を表示する。 Further, the intercom system 10 according to the eighth aspect includes an image processing system X1 according to any one of the first to seventh aspects, a plurality of communication units 11 and 22, a display unit 12 (or 27), Prepare. A plurality of communication units 11 and 22 mutually communicate signals including sound information. The display unit 12 (or 27) displays an image of an extraction range (extraction range E1, E2, E3, .

上記の構成によれば、抽出部231は、撮像部21で生成される撮像画像に対して、抽出範囲の画像を抽出する処理を施す。したがって、撮像画像の全範囲が写った画像と比較して、抽出部231による抽出後の画像を見やすくできる。より詳細には、抽出範囲の画像に写っている人(来訪者100)等を見やすくできる。 According to the above configuration, the extraction unit 231 performs processing for extracting the image of the extraction range from the captured image generated by the imaging unit 21 . Therefore, the image extracted by the extraction unit 231 can be easier to see than an image in which the entire range of the captured image is captured. More specifically, the person (visitor 100) or the like appearing in the image of the extraction range can be made easier to see.

また、第9の態様に係る画像処理方法は、抽出ステップS2と、設定ステップS1と、を備える。抽出ステップS2では、抽出範囲(抽出範囲E1、E2、E3、……、又はE7)の画像を抽出する。抽出範囲は、インターホンシステム10に用いられる撮像部21が生成した撮像画像の全範囲(全範囲A1又はA3)のうち一部の範囲である。設定ステップS1では、抽出範囲を設定する。 Also, the image processing method according to the ninth aspect includes an extraction step S2 and a setting step S1. In the extraction step S2, an image of an extraction range (extraction range E1, E2, E3, . . . , or E7) is extracted. The extraction range is a partial range of the entire range (full range A1 or A3) of the captured image generated by the imaging unit 21 used in the intercom system 10 . In setting step S1, an extraction range is set.

上記の構成によれば、抽出ステップでは、撮像部21で生成される撮像画像に対して、抽出範囲の画像を抽出する処理を施す。したがって、撮像画像の全範囲が写った画像と比較して、抽出ステップによる抽出後の画像を見やすくできる。より詳細には、抽出範囲の画像に写っている人(来訪者100)等を見やすくできる。 According to the above configuration, in the extraction step, the captured image generated by the imaging unit 21 is subjected to processing for extracting the image of the extraction range. Therefore, compared with an image showing the entire range of the captured image, the image extracted by the extraction step can be made easier to see. More specifically, the person (visitor 100) or the like appearing in the image of the extraction range can be made easier to see.

また、第10の態様に係るプログラムは、第9の態様に係る画像処理方法をコンピュータシステムに実行させる。 A program according to a tenth aspect causes a computer system to execute the image processing method according to the ninth aspect.

上記の構成によれば、抽出ステップでは、撮像部21で生成される撮像画像に対して、抽出範囲の画像を抽出する処理を施す。したがって、撮像画像の全範囲が写った画像と比較して、抽出ステップによる抽出後の画像を見やすくできる。より詳細には、抽出範囲の画像に写っている人(来訪者100)等を見やすくできる。 According to the above configuration, in the extraction step, the captured image generated by the imaging unit 21 is subjected to processing for extracting the image of the extraction range. Therefore, compared with an image in which the entire range of the captured image is captured, the image extracted by the extraction step can be made easier to see. More specifically, the person (visitor 100) or the like appearing in the image of the extraction range can be made easier to see.

上記態様に限らず、実施形態に係るインターホンシステム10の種々の構成(変形例を含む)は、画像処理方法及びプログラムにて具現化可能である。 Various configurations (including modified examples) of the intercom system 10 according to the embodiment can be embodied by image processing methods and programs, without being limited to the above aspect.

上述した各実施形態は、変形例も含めて、適宜組み合わせて実現されてもよい。 Each of the above-described embodiments, including modifications, may be combined as appropriate and implemented.

X1 画像処理システム
10 インターホンシステム
11 通信部
12 表示部
15 操作部(候補入力部)
21 撮像部
22 通信部
25 操作部(入力部)
27 表示部
231 抽出部
232 設定部
71、72、73 候補
710、720、730 中心の位置
A1、A3 全範囲
E1~E7抽出範囲
S1 設定ステップ
S2 抽出ステップ
β1 水平画角
X1 image processing system 10 intercom system 11 communication unit 12 display unit 15 operation unit (candidate input unit)
21 imaging unit 22 communication unit 25 operation unit (input unit)
27 display unit 231 extraction unit 232 setting unit 71, 72, 73 candidates 710, 720, 730 center positions A1, A3 entire range E1 to E7 extraction range S1 setting step S2 extraction step β1 horizontal angle of view

Claims (8)

インターホンシステムに用いられる撮像部が生成した撮像画像の全範囲のうち一部の範囲である抽出範囲の画像を抽出する抽出部と、
前記抽出範囲を設定する設定部と、を備え
前記撮像部から見た前記抽出範囲における水平方向の視野の広さが、前記抽出範囲における或る基準位置において或る大きさになるように、前記設定部は前記抽出範囲を設定し、
前記設定部は、前記撮像部の仰角又は俯角に基づいて、前記基準位置及び前記或る大きさのうち少なくとも一方を決定する、
画像処理システム。
an extraction unit that extracts an image of an extraction range that is a part of the entire range of the captured image generated by the imaging unit used in the intercom system;
and a setting unit that sets the extraction range ,
The setting unit sets the extraction range such that the width of the horizontal field of view in the extraction range seen from the imaging unit is a certain size at a certain reference position in the extraction range,
The setting unit determines at least one of the reference position and the certain size based on an elevation angle or a depression angle of the imaging unit .
image processing system.
前記設定部は、前記撮像画像の前記抽出範囲が前記全範囲よりも上下方向及び水平方向に小さくなるように前記抽出範囲を設定する、
請求項1に記載の画像処理システム。
The setting unit sets the extraction range such that the extraction range of the captured image is vertically and horizontally smaller than the entire range.
The image processing system according to claim 1.
前記抽出範囲を指定する指定情報の入力を受け付ける入力部を更に備え、 further comprising an input unit that receives input of designation information designating the extraction range;
前記設定部は、前記入力部に入力される前記指定情報に基づいて、前記抽出範囲を設定する、 The setting unit sets the extraction range based on the specified information input to the input unit.
請求項1又は2に記載の画像処理システム。 The image processing system according to claim 1 or 2.
前記抽出範囲を複数の候補の中から指定する候補情報の入力を受け付ける候補入力部を更に備え、 further comprising a candidate input unit that receives input of candidate information designating the extraction range from among a plurality of candidates;
前記設定部は、前記抽出範囲の前記複数の候補を決定する、 The setting unit determines the plurality of candidates for the extraction range.
請求項1~3のいずれか一項に記載の画像処理システム。 The image processing system according to any one of claims 1-3.
前記設定部は、前記抽出範囲としての前記複数の候補の各々の中心の位置が、前記撮像画像中において水平方向に互いに異なるように、前記複数の候補を決定する、 The setting unit determines the plurality of candidates such that the center positions of the plurality of candidates as the extraction range are different from each other in the horizontal direction in the captured image.
請求項4に記載の画像処理システム。 5. The image processing system according to claim 4.
請求項1~5のいずれか一項に記載の画像処理システムと、 The image processing system according to any one of claims 1 to 5,
音情報を含む信号を相互に通信する複数の通信部と、 a plurality of communication units that mutually communicate signals containing sound information;
前記撮像画像の前記全範囲のうち前記抽出範囲の画像を表示する表示部と、を備える、 a display unit that displays an image of the extraction range out of the entire range of the captured image;
インターホンシステム。 intercom system.
コンピュータシステムにおいて実行される画像処理方法であって、 An image processing method performed in a computer system, comprising:
インターホンシステムに用いられる撮像部が生成した撮像画像の全範囲のうち一部の範囲である抽出範囲の画像を抽出する抽出ステップと、 an extraction step of extracting an image of an extraction range, which is a part of the entire range of the captured image generated by the imaging unit used in the intercom system;
前記抽出範囲を設定する設定ステップと、を備え、 a setting step of setting the extraction range;
前記撮像部から見た前記抽出範囲における水平方向の視野の広さが、前記抽出範囲における或る基準位置において或る大きさになるように、前記設定ステップでは前記抽出範囲を設定し、 In the setting step, the extraction range is set so that the width of the horizontal field of view in the extraction range as seen from the imaging unit is a certain size at a certain reference position in the extraction range,
前記設定ステップでは、前記撮像部の仰角又は俯角に基づいて、前記基準位置及び前記或る大きさのうち少なくとも一方を決定する、 In the setting step, at least one of the reference position and the certain size is determined based on the elevation angle or depression angle of the imaging unit.
画像処理方法。 Image processing method.
請求項7に記載の画像処理方法を前記コンピュータシステムに実行させるための、 for causing the computer system to execute the image processing method according to claim 7,
プログラム。 program.
JP2018194630A 2018-10-15 2018-10-15 Image processing system, intercom system, image processing method and program Active JP7122629B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018194630A JP7122629B2 (en) 2018-10-15 2018-10-15 Image processing system, intercom system, image processing method and program
TW108136986A TWI762822B (en) 2018-10-15 2019-10-15 Image processing system, intercom system, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018194630A JP7122629B2 (en) 2018-10-15 2018-10-15 Image processing system, intercom system, image processing method and program

Publications (2)

Publication Number Publication Date
JP2020065122A JP2020065122A (en) 2020-04-23
JP7122629B2 true JP7122629B2 (en) 2022-08-22

Family

ID=70387609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018194630A Active JP7122629B2 (en) 2018-10-15 2018-10-15 Image processing system, intercom system, image processing method and program

Country Status (2)

Country Link
JP (1) JP7122629B2 (en)
TW (1) TWI762822B (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150452A (en) 2005-11-24 2007-06-14 Aiphone Co Ltd Video intercom device
JP2009230318A (en) 2008-03-21 2009-10-08 Aiphone Co Ltd Television intercom device
JP2016111521A (en) 2014-12-05 2016-06-20 シャープ株式会社 Information processing device, information processing program and information processing method
JP2017158102A (en) 2016-03-03 2017-09-07 パナソニックIpマネジメント株式会社 Intercom system and communication method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219872A (en) * 2009-03-17 2010-09-30 Panasonic Corp Camera apparatus, display, system and method for processing image
JP5678324B2 (en) * 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 Display device, computer program, and display method
EP2988248B1 (en) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
WO2018074520A1 (en) * 2016-10-21 2018-04-26 パナソニックIpマネジメント株式会社 Interphone system, interphone main device, interphone sub-device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150452A (en) 2005-11-24 2007-06-14 Aiphone Co Ltd Video intercom device
JP2009230318A (en) 2008-03-21 2009-10-08 Aiphone Co Ltd Television intercom device
JP2016111521A (en) 2014-12-05 2016-06-20 シャープ株式会社 Information processing device, information processing program and information processing method
JP2017158102A (en) 2016-03-03 2017-09-07 パナソニックIpマネジメント株式会社 Intercom system and communication method

Also Published As

Publication number Publication date
JP2020065122A (en) 2020-04-23
TW202029740A (en) 2020-08-01
TWI762822B (en) 2022-05-01

Similar Documents

Publication Publication Date Title
JP4752918B2 (en) Image processing apparatus, image collation method, and program
WO2011148607A1 (en) Gesture recognition device and gesture recognition method
US11910087B2 (en) Electronic device and image control method of the electronic device
TWI668988B (en) Interphone system, interphone master unit, interphone slave unit and program
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP7122629B2 (en) Image processing system, intercom system, image processing method and program
US10460202B2 (en) Multi-camera device
JP7236636B2 (en) Image processing system, image processing method, and program
JP2010157854A (en) Information processing apparatus, information processing method and program
JP2018174495A (en) Intercom system, intercom slave unit, and program
TWI762727B (en) Intercom device and intercom system
JP7308445B2 (en) Image processing system, image processing method and program
TWI752465B (en) Image processing system, image processing method, and program
TWI788548B (en) Intercom device, intercom system, information terminal, processing method and program
JP6602686B2 (en) Intercom system
JP7390670B2 (en) Image output method and program for communal entrance handsets, communal entrance handsets
WO2022056821A1 (en) Electric device, controlling method of controlling electric device, and computer readable storage medium
JP6128929B2 (en) Imaging apparatus, control method therefor, and program
JP2012142727A (en) Conference system, conference terminal, and remote side terminal
KR102404361B1 (en) Digital signage and driving method therof
US11997381B2 (en) Imaging system, imaging method, and non-transitory computer-readable medium
CN115914533A (en) Video conference terminal adjusting method and device
JP2021125769A (en) Image processing device, image processing method, and program
JP2020184656A (en) Sound acquisition control system, information terminal, sound acquisition control method, and program
JP2016148602A (en) Angle detection system, program, and angle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R151 Written notification of patent or utility model registration

Ref document number: 7122629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151