JP2019138622A - Storing device - Google Patents

Storing device Download PDF

Info

Publication number
JP2019138622A
JP2019138622A JP2019088995A JP2019088995A JP2019138622A JP 2019138622 A JP2019138622 A JP 2019138622A JP 2019088995 A JP2019088995 A JP 2019088995A JP 2019088995 A JP2019088995 A JP 2019088995A JP 2019138622 A JP2019138622 A JP 2019138622A
Authority
JP
Japan
Prior art keywords
image
imaging
camera
composite image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019088995A
Other languages
Japanese (ja)
Other versions
JP6794493B2 (en
Inventor
賢一 下山
Kenichi Shimoyama
賢一 下山
三島 直
Sunao Mishima
直 三島
井田 孝
Takashi Ida
孝 井田
琢麿 山本
Takuma Yamamoto
琢麿 山本
三田 雄志
Takeshi Mita
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Lifestyle Products and Services Corp
Priority to JP2019088995A priority Critical patent/JP6794493B2/en
Publication of JP2019138622A publication Critical patent/JP2019138622A/en
Application granted granted Critical
Publication of JP6794493B2 publication Critical patent/JP6794493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices That Are Associated With Refrigeration Equipment (AREA)
  • Cold Air Circulating Systems And Constructional Details In Refrigerators (AREA)
  • Image Processing (AREA)

Abstract

To provide a storing device that can improve quality of an image inside a storing device, which is provided to a user, and to provide an image processing device, an image processing method and a program.SOLUTION: A storing device includes an opening door, a storing chamber and a generation part. The storing chamber stores an object. The generation part, when at least one of an opening operation and a closing operation is conducted on the opening door, varies the physical relationship with the storing chamber in accordance with the opening operation and the closing operation and synthesizes a plurality of imaged images that are acquired by imaging by an imaging part for imaging a plurality of images of the storing chamber.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、収納装置に関する。   Embodiments described herein relate generally to a storage device.

従来、冷蔵庫等の収納装置において、ドア(開き戸)の開閉時に、当該ドアに取り付けられたカメラなどの撮像装置で収納装置の内部を撮像し、その撮像により得られた画像をユーザに提示する技術が知られている。   2. Description of the Related Art Conventionally, in a storage device such as a refrigerator, when a door (a hinged door) is opened and closed, the inside of the storage device is imaged by an imaging device such as a camera attached to the door, and an image obtained by the imaging is presented to the user It has been known.

特開2001−317858号公報JP 2001-317858 A

しかしながら、従来技術では、例えば開閉時のドアの角度によっては、ユーザに提示すべき領域を含む画像を得ることができないという問題がある。   However, the conventional technique has a problem that an image including an area to be presented to the user cannot be obtained depending on, for example, the angle of the door when opening and closing.

本発明が解決しようとする課題は、ユーザに提示する収納装置内の画像の品質を向上させることが可能な収納装置を提供することである。   The problem to be solved by the present invention is to provide a storage device capable of improving the quality of images in the storage device presented to the user.

実施形態の収納装置は、開き戸と、収納室と、撮像部とを備える。収納室は、物体を収納する。撮像部は、開き戸の扉面の法線方向に傾斜して配置され、収納室を撮像する。撮像部は、収納室の前面と開き戸とのなす角度が増加方向に変化すると撮像を開始し、角度の増加方向の変化量が閾値以下になると撮像を停止し、その後、角度の減少方向の変化量が閾値を超えると再び撮像を開始し、角度の減少方向の変化量が閾値以下になると撮像を停止する。   The storage device according to the embodiment includes a hinged door, a storage room, and an imaging unit. The storage room stores objects. The imaging unit is arranged to be inclined in the normal direction of the door surface of the hinged door, and images the storage room. The imaging unit starts imaging when the angle between the front of the storage room and the hinged door changes in the increasing direction, stops imaging when the amount of change in the increasing direction of the angle falls below a threshold value, and then changes in the decreasing direction of the angle When the amount exceeds the threshold value, imaging is started again, and when the amount of change in the angle decreasing direction is equal to or less than the threshold value, imaging is stopped.

実施形態の冷蔵庫の正面図。The front view of the refrigerator of embodiment. 実施形態の冷蔵庫の平面図。The top view of the refrigerator of embodiment. 実施形態の冷蔵庫の平面図。The top view of the refrigerator of embodiment. 実施形態の各カメラ位置に対応する撮像画像の一例を示す図。The figure which shows an example of the captured image corresponding to each camera position of embodiment. 実施形態の画像処理装置の構成の一例を示す図。1 is a diagram illustrating an example of a configuration of an image processing apparatus according to an embodiment. 実施形態の開き戸の角度を説明するための図。The figure for demonstrating the angle of the hinged door of embodiment. 実施形態の撮像画像に対する補正を説明するための図。The figure for demonstrating the correction | amendment with respect to the captured image of embodiment. 実施形態の撮像画像に対する補正を説明するための図。The figure for demonstrating the correction | amendment with respect to the captured image of embodiment. 実施形態の第1合成画像の一例を示す図。The figure which shows an example of the 1st synthesized image of embodiment. 実施形態の第1合成画像と不足領域の一例を示す模式図。The schematic diagram which shows an example of the 1st synthetic | combination image and insufficient area | region of embodiment. 実施形態の第2合成画像の生成方法を示す概念図。The conceptual diagram which shows the production | generation method of the 2nd synthesized image of embodiment. 実施形態の画像処理装置の構成の一例を示す図。1 is a diagram illustrating an example of a configuration of an image processing apparatus according to an embodiment. 実施形態の第1信頼度を説明するための模式図。The schematic diagram for demonstrating the 1st reliability of embodiment.

以下、添付図面を参照しながら、本発明に係る収納装置、画像処理装置、画像処理方法およびプログラムの実施形態を詳細に説明する。以下の説明では、収納装置の一例として、冷蔵庫を挙げて説明するが、これに限られるものではない。   Hereinafter, embodiments of a storage device, an image processing device, an image processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. In the following description, a refrigerator will be described as an example of a storage device, but the present invention is not limited to this.

(第1実施形態)
図1は、本実施形態の冷蔵庫1の正面図である。図1に示すように、冷蔵庫1は、開き戸10と、本体部20とを備える。
(First embodiment)
FIG. 1 is a front view of the refrigerator 1 of the present embodiment. As shown in FIG. 1, the refrigerator 1 includes a hinged door 10 and a main body 20.

なお、「開き戸」とは、一方の端部(扉の両側縁のうちの一方の側縁)が蝶番(ヒンジ)などで固定され、その固定された部分を軸として、他方の端部(扉の両側縁のうちの他方の側縁)が弧を描くように移動する扉(戸)を指す。   The "folding door" refers to one end (one of the side edges of the door) fixed with a hinge or the like, and the other end (door) with the fixed portion as an axis. The door (door) which moves so that the other side edge of the both side edges of (1) may draw an arc.

図1に示すように、本体部20は、物体を収納する収納室21を有する。図1では、正面視において収納室21の入口全体が完全に露出するように開き戸10の開動作が行われた後の状態を図示している。ここでは、図示を省略するが、開き戸10には、ユーザが開き戸10を開閉させるための把持部が設けられている。図1の例では、開き戸10は、1枚の扉で構成されているが、これに限らず、例えば2枚の扉で構成される両開き戸であってもよいし、例えば上下に開くタイプの扉であってもよい。また、図1の例では、開き戸10の後面(収納室21側の面)には、ペットボトルなどの容器を収納するためのドアポケット11が設けられている。   As shown in FIG. 1, the main body 20 has a storage chamber 21 for storing an object. FIG. 1 illustrates the state after the opening operation of the hinged door 10 is performed so that the entire entrance of the storage chamber 21 is completely exposed in a front view. Here, although illustration is omitted, the hinged door 10 is provided with a gripping part for the user to open and close the hinged door 10. In the example of FIG. 1, the hinged door 10 is configured with a single door, but is not limited thereto, and may be, for example, a double hinged door configured with two doors, for example, a type that opens up and down. It may be a door. Moreover, in the example of FIG. 1, the door pocket 11 for accommodating containers, such as a PET bottle, is provided in the rear surface (surface by the side of the storage chamber 21) of the hinged door 10. As shown in FIG.

また、図1の例では、開き戸10には、開き戸10の開動作または閉動作に応じて収納室21との位置関係が変化するとともに収納室21を複数撮像する(連続的に撮像する)カメラ30が取り付けられている。本明細書において、「撮像」とは、レンズなどの光学系により結像された被写体(撮像対象)の像を、電気信号に変換することを指す。カメラ30は、動画の撮像を行う機能を有するものであればよく、例えばCCDやCMOSを用いた可視光カメラや赤外カメラなどで構成され得る。この例では、カメラ30は、請求項の「撮像部」に対応していると考えることができる。なお、この例では、カメラ30は開き戸10に外付けされているが、これに限らず、例えばカメラ30が開き戸10に内蔵される(埋め込まれる)形態であってもよい。   In the example of FIG. 1, the hinged door 10 has a camera in which the positional relationship with the storage chamber 21 changes according to the opening or closing operation of the hinged door 10 and images a plurality of storage chambers 21 (images are continuously captured). 30 is attached. In this specification, “imaging” refers to converting an image of a subject (imaging target) imaged by an optical system such as a lens into an electrical signal. The camera 30 only needs to have a function of capturing a moving image, and can be constituted by, for example, a visible light camera or an infrared camera using a CCD or a CMOS. In this example, it can be considered that the camera 30 corresponds to the “imaging unit” in the claims. In this example, the camera 30 is externally attached to the hinged door 10. However, the present invention is not limited to this. For example, the camera 30 may be incorporated (embedded) in the hinged door 10.

本実施形態では、カメラ30による撮像は、開き戸10の開閉時に行われる。また、カメラ30の設置場所や設置時のカメラ30の光軸方向や画角等は、ユーザに提示する収納室21の範囲に応じて決定することが好ましい。例えば収納室21のうちの少なくとも入口全体を提示する場合、開き戸10の開閉時において、収納室21のうちの少なくとも入口全体が撮像されるよう、カメラ30の光軸方向や角度を決定することが好ましい。また、本実施形態では、カメラ30の台数が1台である場合を例に挙げて説明するが、これに限らず、例えば複数台のカメラ30を用いて、ユーザに提示する収納室21の範囲を撮像する形態であってもよい。   In the present embodiment, imaging by the camera 30 is performed when the hinged door 10 is opened and closed. Moreover, it is preferable to determine the installation location of the camera 30, the optical axis direction of the camera 30 at the time of installation, the angle of view, and the like according to the range of the storage chamber 21 presented to the user. For example, when presenting at least the entire entrance of the storage chamber 21, the optical axis direction and angle of the camera 30 can be determined so that at least the entire entrance of the storage chamber 21 is imaged when the hinged door 10 is opened and closed. preferable. Further, in the present embodiment, a case where the number of cameras 30 is one will be described as an example. However, the present invention is not limited to this. For example, the range of the storage chamber 21 presented to the user using a plurality of cameras 30 is used. It is also possible to take a form of imaging.

図2は、冷蔵庫1を上方から俯瞰した場合の平面図である。図2においては、開き戸10の上部であって、根元(扉の回転軸に対応する部分)から、扉の上縁部の全長の2/3程度の位置に、カメラ30を設置した例を示している。図2の例では、扉面(扉の前面または後面)の法線方向に対して角度θの方向にカメラ光軸を向けてカメラ30が設置されている。   FIG. 2 is a plan view of the refrigerator 1 as viewed from above. FIG. 2 shows an example in which the camera 30 is installed at a position about 2/3 of the total length of the upper edge of the door from the base (part corresponding to the rotation axis of the door) above the hinged door 10. ing. In the example of FIG. 2, the camera 30 is installed with the camera optical axis directed in the direction of an angle θ with respect to the normal direction of the door surface (front surface or rear surface of the door).

図3は、冷蔵庫1を上方から俯瞰した場合の平面図であり、正面視において収納室21の入口全体が完全に露出するまで開き戸10の開動作が行われた場合に、カメラ30による撮像が行われる様子を示している。図3の例では、上記開動作が行われる場合、カメラ30は、位置P1→位置P2→位置P3と移動しながら撮像を行う。カメラ30は、位置P1では収納室21の入口の右側を撮像し、位置P2では収納室21の入口の中央付近を撮像し、位置P3では収納室21の左側を撮像し、開動作の開始から終了までにおいて収納室21の入口全体を撮像することになる。   FIG. 3 is a plan view when the refrigerator 1 is viewed from above. When the opening operation of the hinged door 10 is performed until the entire entrance of the storage chamber 21 is completely exposed in a front view, the imaging by the camera 30 is performed. It shows how it is done. In the example of FIG. 3, when the opening operation is performed, the camera 30 captures an image while moving from position P1 → position P2 → position P3. The camera 30 images the right side of the entrance of the storage chamber 21 at the position P1, images the vicinity of the center of the entrance of the storage chamber 21 at the position P2, and images the left side of the storage chamber 21 at the position P3. Until the end, the entire entrance of the storage chamber 21 is imaged.

図4の(a)は、上記位置P1に対応する撮像画像(位置P1でのカメラ30による撮像で得られた画像)を表す。また、図4の(b)は、上記位置P2に対応する撮像画像を表す。さらに、図4の(c)は、上記位置P3に対応する撮像画像を表す。   FIG. 4A shows a captured image corresponding to the position P1 (an image obtained by capturing with the camera 30 at the position P1). FIG. 4B shows a captured image corresponding to the position P2. Further, (c) of FIG. 4 represents a captured image corresponding to the position P3.

図5は、冷蔵庫1に搭載された画像処理装置100の構成の一例を示す図である。ここでは、画像処理装置100が冷蔵庫1に搭載される場合を例に挙げて説明するが、これに限らず、例えば画像処理装置100は、冷蔵庫1の外部に設けられる形態であってもよい。   FIG. 5 is a diagram illustrating an example of the configuration of the image processing apparatus 100 mounted on the refrigerator 1. Here, a case where the image processing apparatus 100 is mounted on the refrigerator 1 will be described as an example. However, the present invention is not limited to this, and the image processing apparatus 100 may be provided outside the refrigerator 1, for example.

図5に示すように、画像処理装置100は、カメラ制御部110と、取得部120と、生成部125と、表示制御部160とを備える。   As illustrated in FIG. 5, the image processing apparatus 100 includes a camera control unit 110, an acquisition unit 120, a generation unit 125, and a display control unit 160.

カメラ制御部110は、センサ40からの信号に基づいて、カメラ30による撮像の開始または終了を制御する。この例では、センサ40は、所定の周期で、開き戸10の角度φを検出する角度センサである。センサ40を構成する角度センサとしては、公知の様々な構成を利用可能である。この例では、図6に示すように、上記角度φは、本体部20の前面と開き戸10とのなす角度を表す。角度φが「0度」であれば、開き戸10は閉じた状態であり、角度φが「90度」であれば、正面視において収納室21の入口全体が露出するように開き戸10が開いた状態であると考えることができる。本実施形態のセンサ40は、角度φを検出するたびに、その検出した角度φを示す信号(以下の説明では、「角度信号」と称する場合がある)を、カメラ制御部110および後述の取得部120へ送信する。   The camera control unit 110 controls the start or end of imaging by the camera 30 based on the signal from the sensor 40. In this example, the sensor 40 is an angle sensor that detects the angle φ of the hinged door 10 at a predetermined cycle. As the angle sensor constituting the sensor 40, various known configurations can be used. In this example, as shown in FIG. 6, the angle φ represents an angle formed by the front surface of the main body 20 and the hinged door 10. If the angle φ is “0 degrees”, the hinged door 10 is in a closed state, and if the angle φ is “90 degrees”, the hinged door 10 is opened so that the entire entrance of the storage chamber 21 is exposed in front view. Can be considered a state. Each time the sensor 40 according to the present embodiment detects the angle φ, a signal indicating the detected angle φ (which may be referred to as an “angle signal” in the following description) is acquired by the camera control unit 110 and the acquisition described later. To the unit 120.

図5に戻って、カメラ制御部110の説明を続ける。前述したように、本実施形態では、カメラ30による撮像は、開き戸10の開閉時に行われる。より具体的には以下のとおりである。例えばカメラ制御部110は、上記所定の周期でセンサ40から取得する角度信号が示す角度φが、「0度」から増加方向に変化する場合は、開動作が開始されたと判断し、カメラ30による撮像を開始する制御を行う。当該カメラ30による撮像を開始する制御を行った後、カメラ制御部110は、センサ40からの角度信号が示す角度φの増加方向の変化量が閾値以下になった場合は、開動作が完了したと判断して、カメラ30による撮像を終了する制御を行う。その後、センサ40からの角度信号が示す角度φの減少方向の変化量が閾値を超えた場合、カメラ制御部110は、閉動作が開始されたと判断し、カメラ30による撮像を開始する制御を行う。当該カメラ30による撮像を開始する制御を行った後、カメラ制御部110は、センサ40からの角度信号が示す角度φが「0度」を示す場合は、閉動作が完了したと判断して、カメラ30による撮像を終了する制御を行う。   Returning to FIG. 5, the description of the camera control unit 110 will be continued. As described above, in the present embodiment, imaging by the camera 30 is performed when the hinged door 10 is opened and closed. More specifically, it is as follows. For example, when the angle φ indicated by the angle signal acquired from the sensor 40 in the predetermined cycle changes in an increasing direction from “0 degree”, the camera control unit 110 determines that the opening operation has started, and the camera 30 Control to start imaging. After performing the control to start imaging by the camera 30, the camera control unit 110 completes the opening operation when the amount of change in the increasing direction of the angle φ indicated by the angle signal from the sensor 40 is equal to or less than the threshold value. And control to end the imaging by the camera 30 is performed. Thereafter, when the amount of change in the decreasing direction of the angle φ indicated by the angle signal from the sensor 40 exceeds the threshold value, the camera control unit 110 determines that the closing operation has started and performs control to start imaging by the camera 30. . After performing the control to start imaging by the camera 30, the camera control unit 110 determines that the closing operation is completed when the angle φ indicated by the angle signal from the sensor 40 indicates “0 degree”. Control to end imaging by the camera 30 is performed.

次に、図5に示す取得部120について説明する。取得部120は、カメラ30による撮像が行われるたびに、当該撮像により得られた撮像画像と、当該撮像が行われた時刻を示す撮像時刻とをカメラ30から取得して後述の検出部131へ供給する。また、この例では、取得部120は、上記所定の周期でセンサ40からの角度信号を取得して後述の検出部131へ供給する。   Next, the acquisition unit 120 illustrated in FIG. 5 will be described. The acquisition unit 120 acquires the captured image obtained by the imaging and the imaging time indicating the time when the imaging is performed from the camera 30 every time the imaging by the camera 30 is performed, and sends the captured image to the detection unit 131 described later. Supply. In this example, the acquisition unit 120 acquires the angle signal from the sensor 40 at the predetermined cycle and supplies the angle signal to the detection unit 131 described later.

なお、例えば上述のカメラ制御部110が設けられずに、カメラ30による撮像が常時行われており、取得部120は、センサ40からの角度信号に基づいて、開き戸10の開動作または閉動作が行われていると判断した場合にのみ、撮像画像および撮像時刻をカメラ30から取得する形態であってもよい。   For example, the above-described camera control unit 110 is not provided, and imaging by the camera 30 is always performed, and the acquisition unit 120 performs an opening operation or a closing operation of the hinged door 10 based on an angle signal from the sensor 40. Only when it is determined that it is being performed, the captured image and the captured time may be acquired from the camera 30.

次に、図5に示す生成部125について説明する。生成部125は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像を合成する。以下、具体的な内容を説明する。図5に示すように、生成部125は、第1生成部130と、記憶部140と、第2生成部150と、を含む。   Next, the generation unit 125 illustrated in FIG. 5 will be described. The generation unit 125 synthesizes a plurality of captured images obtained by imaging with the camera 30 when at least one of the opening operation and the closing operation of the hinged door 10 is performed. Specific contents will be described below. As illustrated in FIG. 5, the generation unit 125 includes a first generation unit 130, a storage unit 140, and a second generation unit 150.

第1生成部130は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像(パノラマ画像)を生成する。以下、具体的に説明する。本実施形態では、第1生成部130は、検出部131と、補正部132と、合成部133とを含む。   When at least one of the opening operation and the closing operation of the hinged door 10 is performed, the first generation unit 130 includes a plurality of objects so that the same subject included in the plurality of captured images obtained by imaging with the camera 30 overlaps. A first synthesized image (panoramic image) obtained by synthesizing the captured images is generated. This will be specifically described below. In the present embodiment, the first generation unit 130 includes a detection unit 131, a correction unit 132, and a synthesis unit 133.

検出部131は、収納室21に対するカメラ30の相対的な位置を検出する。この例では、検出部131は、請求項の「位置検出部」に対応する機能を有していると考えることができる。より具体的には以下のとおりである。この例では、検出部131は、予め定められたカメラ30の取り付け位置(この例では、開き戸10に取り付けられたカメラ30の位置)や方向等の設置情報を、カメラ30あるいは不図示のメモリ(外部装置でもよい)から取得する。また、例えば検出部131は、撮像時の明るさやシャッタースピード等の撮像環境を示す環境情報をカメラ30から取得することもできる。また、例えば検出部131は、カメラ30の解像度や画角等のカメラ30のスペックを、カメラ30あるいは不図示のメモリ(外部装置でもよい)から取得することもできる。   The detection unit 131 detects the relative position of the camera 30 with respect to the storage chamber 21. In this example, the detection unit 131 can be considered to have a function corresponding to the “position detection unit” in the claims. More specifically, it is as follows. In this example, the detection unit 131 stores installation information such as a predetermined mounting position of the camera 30 (in this example, the position of the camera 30 attached to the hinged door 10) and a direction, and the installation information such as the camera 30 or a memory (not illustrated). From an external device). For example, the detection unit 131 can also acquire environment information indicating an imaging environment such as brightness and shutter speed during imaging from the camera 30. Further, for example, the detection unit 131 can also acquire the specifications of the camera 30 such as the resolution and angle of view of the camera 30 from the camera 30 or a memory (not shown) (which may be an external device).

例えば検出部131は、開き戸10の根元の位置を原点とする座標系を定義し、上述の取得部120から供給される角度信号が示す角度φと、上述の設置情報が示すカメラ30の取り付け位置とから、当該座標系におけるカメラ30の座標値を算出し、その算出した座標値を、カメラ30の位置(収納室21に対するカメラ30の相対的な位置)として検出することもできる。本実施形態では、検出部131は、取得部120から供給される情報(撮像画像、撮像時刻および角度信号)や、上述の設置情報などに基づいて、撮像時のカメラ30の位置(より具体的には、複数の撮像時刻と1対1に対応する複数のカメラ位置)を検出する。そして、検出部131は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、当該位置での撮像により得られた撮像画像を対応付けた検出情報を、後述の補正部132へ供給する。   For example, the detection unit 131 defines a coordinate system with the base position of the hinged door 10 as the origin, the angle φ indicated by the angle signal supplied from the acquisition unit 120 described above, and the attachment position of the camera 30 indicated by the installation information described above. Thus, the coordinate value of the camera 30 in the coordinate system can be calculated, and the calculated coordinate value can be detected as the position of the camera 30 (the relative position of the camera 30 with respect to the storage chamber 21). In the present embodiment, the detection unit 131 detects the position of the camera 30 at the time of imaging (more specifically, based on information (captured image, imaging time and angle signal) supplied from the acquisition unit 120, the above-described installation information, and the like. In other words, a plurality of camera positions corresponding to a plurality of imaging times are detected. Then, the detection unit 131 supplies detection information in which a captured image obtained by imaging at the position is associated with a plurality of detected positions (position of the camera 30 at the time of imaging) to the correction unit 132 described later. To do.

また、例えば検出部131は、上記所定の周期で取得部120から供給される角度信号に基づいて、開き戸10の開動作の開始と終了、または、閉動作の開始と終了を検出(判断)することもできる。例えば検出部131は、開動作が行われる場合に(開動作の開始から終了までの一連の動作が完了するたびに)、当該開動作に対応する上述の検出情報を、後述の補正部132へ供給することもできる。また、例えば検出部131は、閉動作が行われる場合に(閉動作の開始から終了までの一連の動作が完了するたびに)、当該閉動作に対応する上述の検出情報を、後述の補正部132へ供給することもできる。   For example, the detection unit 131 detects (determines) the start and end of the opening operation of the hinged door 10 or the start and end of the closing operation based on the angle signal supplied from the acquisition unit 120 at the predetermined period. You can also. For example, when the opening operation is performed (every time a series of operations from the start to the end of the opening operation is completed), the detection unit 131 sends the detection information corresponding to the opening operation to the correction unit 132 described later. It can also be supplied. Further, for example, when the closing operation is performed, the detection unit 131 indicates the above-described detection information corresponding to the closing operation, which will be described later, every time a series of operations from the start to the end of the closing operation is completed. 132 can also be supplied.

なお、例えば検出部131が、上述した取得部120の機能を兼ねる形態であってもよい。つまり、取得部120が設けられない形態であってもよい。   For example, the detection unit 131 may be configured to also function as the acquisition unit 120 described above. In other words, the acquisition unit 120 may not be provided.

また、カメラ30の位置を検出する方法としては、上記に限られず、様々な方法が考えられる。例えばカメラ30にジャイロやGPS等を取り付け、ジャイロやGPS等により得られた情報を元にカメラ30の位置を求めることもできる。また、例えばカメラ30による撮像範囲にマーカ等を配置し、撮像画像中のマーカの位置や大きさからカメラ30の位置を求めることもできる。以上に例示した方法以外の方法で、カメラ30の位置を求めてもよい。要するに、検出部131は、カメラ30の位置(撮像を行ったときのカメラ30の位置)を検出する機能を有するものであればよい。   Further, the method for detecting the position of the camera 30 is not limited to the above, and various methods are conceivable. For example, a gyroscope, GPS, or the like can be attached to the camera 30, and the position of the camera 30 can be obtained based on information obtained by the gyroscope, GPS, or the like. In addition, for example, a marker or the like may be arranged in the imaging range by the camera 30 and the position of the camera 30 may be obtained from the position and size of the marker in the captured image. You may obtain | require the position of the camera 30 by methods other than the method illustrated above. In short, the detection unit 131 only needs to have a function of detecting the position of the camera 30 (the position of the camera 30 when imaging is performed).

補正部132は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われた場合において経時的に変化(時間の経過とともに変化)するカメラ30の位置のうち、基準となる位置を示す基準位置以外の位置に対応する撮像画像に対して、各位置に対応する撮像画像に含まれる被写体のスケールを揃えるための補正を行う。本実施形態では、補正部132は、検出部131から供給された検出情報を参照して、当該検出情報に含まれる複数の位置のうち、基準位置以外の位置を特定し、特定した位置に対応付けられた撮像画像を補正する。以下、具体的に説明する。   The correction unit 132 is a reference indicating a reference position among the positions of the camera 30 that change with time (changes with time) when at least one of the opening operation and the closing operation of the hinged door 10 is performed. Correction for aligning the scale of the subject included in the captured image corresponding to each position is performed on the captured image corresponding to a position other than the position. In the present embodiment, the correction unit 132 refers to the detection information supplied from the detection unit 131, identifies a position other than the reference position among a plurality of positions included in the detection information, and corresponds to the identified position. The attached captured image is corrected. This will be specifically described below.

一例として、図3に示す開動作を想定する。この例では、一連の開動作において、カメラ30の位置は、P1→P2→P3と経時的に変化するので、当該開動作に対応する検出情報においては、位置P1と、位置P1での撮像により得られた撮像画像(以下、「撮像画像Ip1」と表記する)とが対応付けられ、位置P2と、位置P2での撮像により得られた撮像画像(以下、「撮像画像Ip2」と表記する)とが対応付けられ、位置P3と、位置P3での撮像により得られた撮像画像(以下、「撮像画像Ip3」と表記する)とが対応付けられている。なお、以下の説明では、撮像画像Ip1、撮像画像Ip2、撮像画像Ip3を互いに区別しない場合は、単に「撮像画像Ip」と称する場合がある。   As an example, the opening operation shown in FIG. 3 is assumed. In this example, in a series of opening operations, the position of the camera 30 changes with time from P1 → P2 → P3. Therefore, in the detection information corresponding to the opening operation, the images at the positions P1 and P1 are captured. The obtained captured image (hereinafter referred to as “captured image Ip1”) is associated, and the position P2 and the captured image obtained by imaging at the position P2 (hereinafter referred to as “captured image Ip2”). Are associated with each other, and the position P3 is associated with a captured image obtained by imaging at the position P3 (hereinafter referred to as “captured image Ip3”). In the following description, when the captured image Ip1, the captured image Ip2, and the captured image Ip3 are not distinguished from each other, they may be simply referred to as “captured image Ip”.

ここで、収納室21内部の同一物体を、位置P1、位置P2、位置P3で撮像した場合、当該物体までの距離は位置ごとに異なるので、各撮像画像Ipに含まれる(映り込んだ)当該物体の大きさも異なる。したがって、撮像画像Ip1と撮像画像Ip2と撮像画像Ip3とを単純に繋ぎ合わせることは困難である。そこで、本実施形態では、基準となる視点位置(基準位置)を設定し、基準位置以外の位置に対応する撮像画像を補正する。基準位置は、収納室21が観察可能な位置であれば、冷蔵庫1の裏側といった観察不可能な場所でない限り限定されない。しかしながら、後述の第1合成画像(パノラマ画像)が、ユーザに対して提示すべき風景と大きく異なるのは好ましくないので、本実施形態では、カメラ30の光軸が収納室21の入口面と直交するときのカメラ30の位置(図3に示すP2)を、基準位置として設定する。   Here, when the same object inside the storage chamber 21 is imaged at the position P1, the position P2, and the position P3, the distance to the object varies depending on the position, and therefore included in each captured image Ip. The size of the object is also different. Therefore, it is difficult to simply connect the captured image Ip1, the captured image Ip2, and the captured image Ip3. Therefore, in the present embodiment, a reference viewpoint position (reference position) is set, and a captured image corresponding to a position other than the reference position is corrected. The reference position is not limited as long as it is not an unobservable place such as the back side of the refrigerator 1 as long as the storage chamber 21 can be observed. However, since it is not preferable that a first composite image (panoramic image) described later is greatly different from the scenery to be presented to the user, in this embodiment, the optical axis of the camera 30 is orthogonal to the entrance surface of the storage chamber 21. The position (P2 shown in FIG. 3) of the camera 30 at the time is set as a reference position.

例えば位置P1に対応する撮像画像の補正としては、図7に示すように、収納室21の入口からの距離Lが位置P2と等しく、かつ、位置P1のカメラ30の光軸と収納室21の入口との交点c1でカメラ30の光軸が交わる位置P1’で撮像が行われたように補正することもできる。図8に示すように、補正は、例えばアフィン変換などの単純な幾何変換を用いることができる。なお、補正は上述の方法に限られず、各位置に対応する撮影画像に映る物体のスケールが同等になるようなものであればよい。補正部132は、以上のようにして、基準位置P2以外の位置P1および位置P3の各々に対応する撮像画像を補正する。そして、補正部132は、補正した撮像画像(以下の説明では、補正後の撮像画像を「補正画像」と称する場合がある)群と、基準位置に対応する撮像画像を示す基準画像(この例では撮像画像Ip2)とを、後述の合成部133へ供給する。   For example, as a correction of the captured image corresponding to the position P1, as shown in FIG. 7, the distance L from the entrance of the storage chamber 21 is equal to the position P2, and the optical axis of the camera 30 at the position P1 and the storage chamber 21 It can also be corrected as if the image was taken at a position P1 ′ where the optical axes of the camera 30 intersect at the intersection c1 with the entrance. As shown in FIG. 8, the correction can use a simple geometric transformation such as an affine transformation. The correction is not limited to the above-described method, and any correction is possible as long as the scales of the objects shown in the captured images corresponding to the respective positions are equal. The correction unit 132 corrects the captured image corresponding to each of the positions P1 and P3 other than the reference position P2 as described above. Then, the correction unit 132 corrects the captured image (in the following description, the corrected captured image may be referred to as a “corrected image”) and a reference image (this example) indicating the captured image corresponding to the reference position. Then, the captured image Ip2) is supplied to the composition unit 133 described later.

図5に示す合成部133は、補正部132から供給された基準画像と補正画像とを合成して第1合成画像を生成する。この例では、合成部133は、基準画像と、補正画像群に含まれる複数の補正画像(この例では位置P1に対応する補正画像と、位置P3に対応する補正画像)の各々とを比較し、同一範囲すなわち同一物体が撮像されている領域を重ね合わせる。これにより、図9に示すように、基準画像の範囲外まで画像領域が拡張された第1合成画像が生成される。このとき、基準位置に近い画像から順に合成していくと、より高画質な第1合成画像を生成しやすい。なお、本実施形態では、各画像を補正した後に合成しているが、合成しながら補正する方法も考えられる。例えば基準画像に対し、最適に重なるように各画像(基準位置以外の位置に対応する撮像画像)を変形する方法であってもよい。具体的には、様々な変形を試しながら基準画像に対して最適に重なる変形を探索し、最適に重なる変形を決定した後に合成していくといった具合である。上述の本実施形態における方法は、この最適変形を、カメラ30の位置を利用して決定する方法であると考えることができる。   The combining unit 133 illustrated in FIG. 5 combines the reference image and the corrected image supplied from the correcting unit 132 to generate a first combined image. In this example, the synthesizing unit 133 compares the reference image with each of a plurality of correction images included in the correction image group (in this example, the correction image corresponding to the position P1 and the correction image corresponding to the position P3). The same range, that is, the region where the same object is imaged is superimposed. As a result, as shown in FIG. 9, a first composite image in which the image area is expanded beyond the range of the reference image is generated. At this time, if the images are synthesized in order from an image close to the reference position, a first synthesized image with higher image quality can be easily generated. In this embodiment, the images are combined after being corrected, but a method of correcting the images while combining them is also conceivable. For example, each image (a captured image corresponding to a position other than the reference position) may be deformed so as to optimally overlap the reference image. Specifically, while trying various deformations, searching for the optimal overlapping deformation with respect to the reference image, determining the optimal overlapping deformation, and then combining them. It can be considered that the method in the present embodiment described above is a method for determining this optimal deformation using the position of the camera 30.

以上に説明した第1生成部130は、開き戸10の開動作または閉動作が行われる場合に(開き戸10の開動作または閉動作が行われるたびに)、第1合成画像を生成して記憶部140に格納するとともに、当該第1合成画像および当該第1合成画像の生成に用いた検出情報を後述の第2生成部150へ供給する。記憶部140は、第1生成部130により生成された第1合成画像を時系列に記憶する。   The first generation unit 130 described above generates a first composite image when the opening operation or the closing operation of the hinged door 10 is performed (every time the opening operation or the closing operation of the hinged door 10 is performed), and the storage unit 140, and the detection information used to generate the first composite image and the first composite image is supplied to a second generation unit 150 described later. The storage unit 140 stores the first composite image generated by the first generation unit 130 in time series.

次に、図5に示す第2生成部150について説明する。第2生成部150は、上述の第1生成部130により生成された第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する。以下、具体的に説明する。なお、この例では、上記対象領域は、収納室21の入口全体の領域である。   Next, the 2nd production | generation part 150 shown in FIG. 5 is demonstrated. When the first composite image generated by the first generation unit 130 described above does not include a part of the target area indicating the area to be presented to the user in the storage room 21, the second generation unit 150 A part of the target region is complemented using the first composite image, and a second composite image to be presented to the user is generated. This will be specifically described below. In this example, the target area is the entire area of the entrance of the storage chamber 21.

例えば収納室21の入口全体が完全に露出するまで開き戸10が開けられず、収納室21の入口全体を撮像することができなかった場合、この開動作(以下では、「非全開動作」と称する場合がある)に対応する第1合成画像(非全開動作が行われた場合に生成される第1合成画像)は、収納室21の入口全体の一部が含まれない(映っていない)画像となる。同様に、例えば収納室21の入口全体が完全に露出するまで開いていない開き戸10の位置を始点とした閉動作(以下では、「不足閉動作」と称する場合がある)が行われた場合も、この不足閉動作に対応する第1合成画像(不足閉動作が行われた場合に生成される第1合成画像)は、収納室21の入口全体の一部が含まれない画像となる。   For example, when the hinged door 10 cannot be opened until the entire entrance of the storage chamber 21 is completely exposed and the entire entrance of the storage chamber 21 cannot be imaged, this opening operation (hereinafter referred to as “non-fully open operation”). The first composite image (the first composite image generated when the non-fully-opening operation is performed) corresponding to the case may not include a part of the entire entrance of the storage chamber 21 (not shown). It becomes. Similarly, for example, when a closing operation (hereinafter, referred to as “insufficient closing operation”) is performed with the position of the hinged door 10 not opened until the entire entrance of the storage chamber 21 is completely exposed. The first composite image corresponding to the under-close operation (the first composite image generated when the under-close operation is performed) is an image that does not include a part of the entire entrance of the storage chamber 21.

ここでは、上述の非全開動作または不足閉動作において経時的に変化するカメラ30の位置(撮像時のカメラ30の位置)に基づき、収納室21の入口全体が完全に露出するまで開き戸10が開けられた場合に生成される第1合成画像の画像領域(以下の説明では、「全景領域」と称する場合がある)のうち、非全開動作または不足閉動作に対応する第1合成画像の範囲外の領域(以下では、「不足領域」と称する場合がある)を求めることができる。   Here, the hinged door 10 is opened until the entire entrance of the storage chamber 21 is completely exposed based on the position of the camera 30 that changes over time in the non-fully opening operation or the under-closing operation described above (the position of the camera 30 at the time of imaging). Out of the range of the first composite image corresponding to the non-full-open operation or the under-close operation among the image regions of the first composite image generated in this case (in the following description, sometimes referred to as “entire view region”). (Hereinafter, sometimes referred to as “insufficient region”).

本実施形態では、第2生成部150は、上述の第1生成部130から、第1合成画像と検出情報とを取得した場合(取得するたびに)、当該検出情報に含まれるカメラ30の位置から、当該第1合成画像が、全景領域を有するかどうかを判断する。見方を変えれば、第2生成部150は、第1生成部130から取得した検出情報に含まれるカメラ30の位置から、第1生成部130から取得した第1合成画像に対応する開動作が非全開動作、または、当該第1合成画像に対応する閉動作が不足閉動作であるか否かを判断していると考えることもできる。   In the present embodiment, when the second generation unit 150 acquires the first composite image and the detection information from the first generation unit 130 (every time it is acquired), the position of the camera 30 included in the detection information. From this, it is determined whether or not the first composite image has a full view area. In other words, the second generation unit 150 does not perform an opening operation corresponding to the first composite image acquired from the first generation unit 130 from the position of the camera 30 included in the detection information acquired from the first generation unit 130. It can be considered that it is determined whether or not the fully-opening operation or the closing operation corresponding to the first composite image is an under-closing operation.

第2生成部150は、第1生成部130から取得した第1合成画像(以下の説明では、「最新の第1合成画像」と称する場合がある)が、全景領域を有していないと判断した場合、当該最新の第1合成画像の生成に用いられた検出情報(第1生成部130から取得した検出情報)に含まれるカメラ30の位置から、上述の不足領域を求める。図10は、この場合の最新の第1合成画像と不足領域の一例を示す模式図である。   The second generation unit 150 determines that the first composite image acquired from the first generation unit 130 (which may be referred to as “the latest first composite image” in the following description) does not have a full view area. In this case, the above-described insufficient region is obtained from the position of the camera 30 included in the detection information (detection information acquired from the first generation unit 130) used for generating the latest first composite image. FIG. 10 is a schematic diagram showing an example of the latest first composite image and the lacking area in this case.

そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像(最新の第1合成画像よりも前に生成された第1合成画像)の中から、全景領域を有する過去の第1合成画像(好ましくは、全景領域を有し、かつ、現在の時刻に最も近い時刻に対応する過去の第1合成画像)を選択し、その選択した過去の第1合成画像のうち上述の不足領域に対応する領域を、最新の第1合成画像に対して補完することで、最新の第1合成画像の範囲外まで画像領域を拡張した第2合成画像を生成する。図11は、この場合の第2合成画像の生成方法を示す概念図である。このようにして生成した第2合成画像が、ユーザに提示される画像となる。   Then, the second generation unit 150 includes a past scene area from the past first composite image (the first composite image generated before the latest first composite image) stored in the storage unit 140. First composite image (preferably, a past first composite image having a panoramic view area and corresponding to a time closest to the current time) is selected from among the selected past first composite images. By complementing the area corresponding to the shortage area with respect to the latest first synthesized image, a second synthesized image in which the image area is extended to the outside of the range of the latest first synthesized image is generated. FIG. 11 is a conceptual diagram showing a method for generating a second composite image in this case. The second composite image generated in this way is an image presented to the user.

なお、第1生成部130から取得した第1合成画像が全景領域を有していても、例えば撮像時にユーザの手や収納室21から出し入れする物体がカメラ30の撮像範囲に侵入することで、収納室21の入口全体の一部が隠れてしまう場合も想定される。この場合、例えば第2生成部150は、第1生成部130から取得した検出情報に含まれる複数の位置(撮像時のカメラ30の位置)と、複数の位置と1対1に対応する複数の撮像画像とを用いて、モーションステレオ等の方法で被写体までの距離を推定し、全景領域のうち、収納室21の入口よりも手前に存在する物体が撮像された領域を示す第1補完対象領域を求めることができる。そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像の中から、収納室21の入口全体が撮像された過去の第1合成画像を選択し、その選択した過去の第1合成画像のうち上述の第1補完対象領域に対応する領域を、最新の第1合成画像に対して補完することで、第2合成画像を生成することもできる。   Even if the first composite image acquired from the first generation unit 130 has a full view area, for example, when an object to be taken in or out of the user's hand or the storage chamber 21 enters the imaging range of the camera 30 during imaging, It is also assumed that a part of the entire entrance of the storage room 21 is hidden. In this case, for example, the second generation unit 150 includes a plurality of positions (a position of the camera 30 at the time of imaging) included in the detection information acquired from the first generation unit 130, and a plurality of positions corresponding to the plurality of positions on a one-to-one basis. A first complement target area that indicates an area in which an object existing in front of the entrance of the storage room 21 is imaged in the entire view area by estimating the distance to the subject using a captured image and the like using a method such as motion stereo. Can be requested. Then, the second generation unit 150 selects the past first composite image in which the entire entrance of the storage chamber 21 is imaged from the past first composite images stored in the storage unit 140, and the selected past The second synthesized image can also be generated by complementing the area corresponding to the first complement target area described above in the first synthesized image with respect to the latest first synthesized image.

また、第1生成部130から取得した第1合成画像が全景領域を有していても、開閉時のカメラ30の移動速度が大きいために、収納室21の入口全体の一部が撮像されなかった場合も想定される。この場合、例えば第2生成部150は、第1生成部130から取得した検出情報に含まれる複数の位置に基づいて、全景領域のうち、収納室21の入口全体の一部が撮像されなかった領域(フレーム落ちの領域と考えることができる)を示す第2補完対象領域を求めることができる。そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像の中から、収納室21の入口全体が撮像された過去の第1合成画像を選択し、その選択した過去の第1合成画像のうち上述の第2補完対象領域に対応する領域を、最新の第1合成画像に対して補完することで、第2合成画像を生成することもできる。   Even if the first composite image acquired from the first generation unit 130 has a full view area, a part of the entire entrance of the storage chamber 21 is not captured because the moving speed of the camera 30 at the time of opening and closing is high. The case is also assumed. In this case, for example, the second generation unit 150 has not captured a part of the entire entrance of the storage chamber 21 in the entire view area based on the plurality of positions included in the detection information acquired from the first generation unit 130. A second complementing target region indicating a region (which can be considered as a frame dropping region) can be obtained. Then, the second generation unit 150 selects the past first composite image in which the entire entrance of the storage chamber 21 is imaged from the past first composite images stored in the storage unit 140, and the selected past The second synthesized image can be generated by complementing the latest first synthesized image with the area corresponding to the above-described second complementing target area in the first synthesized image.

要するに、第2生成部150は、上述の第1生成部130により生成された第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域(この例では収納室20の入口全体)の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する形態であればよい。   In short, the second generation unit 150 is a target region (in this example, the entrance of the storage chamber 20) in which the first composite image generated by the first generation unit 130 described above indicates the region to be presented to the user in the storage chamber 21. In the case where a part of the entire region is not included, a part of the target area may be complemented using the past first composite image, and a second composite image to be presented to the user may be generated.

次に、図5に示す表示制御部160について説明する。表示制御部160は、第2生成部150により生成された第2合成画像を、画像を表示する表示部(例えば液晶型ディスプレイなどで構成され得る)50に表示する制御を行う。この例では、表示制御部160は、第2生成部150により第2合成画像が生成されるたびに、その生成された第2合成画像を表示部50に表示する制御を行い、表示部50に表示される第2合成画像は、最新の第2合成画像に更新される。また、この例では、表示部50は、開き戸10の前面に設けられているが、これに限らず、表示部50の設置場所は任意である。例えば表示部50は、冷蔵庫1の外部に設けられてもよい。例えば表示部50は、画像処理装置100と接続可能(通信可能)な外部機器(例えばTV、PC、携帯電話端末等)に搭載される形態であってもよい。   Next, the display control unit 160 shown in FIG. 5 will be described. The display control unit 160 performs control to display the second composite image generated by the second generation unit 150 on a display unit 50 (which may be configured with a liquid crystal display or the like) 50 that displays the image. In this example, the display control unit 160 performs control to display the generated second composite image on the display unit 50 every time the second composite image is generated by the second generation unit 150. The displayed second composite image is updated to the latest second composite image. Moreover, in this example, although the display part 50 is provided in the front surface of the hinged door 10, it is not restricted to this, The installation location of the display part 50 is arbitrary. For example, the display unit 50 may be provided outside the refrigerator 1. For example, the display unit 50 may be mounted on an external device (for example, a TV, a PC, a mobile phone terminal, or the like) that can be connected (communicable) with the image processing apparatus 100.

なお、第2合成画像を表示するタイミングは任意であり、常時表示する形態であってもよいし、ユーザからの要求に応じて表示する形態であってもよい。例えばユーザは、ボタン操作、音声、メール、リモコン等を介して、第2合成画像の表示を要求することができる。また、例えば一定時間ごとに、第2合成画像を表示する形態であってもよい。   In addition, the timing which displays a 2nd synthesized image is arbitrary, The form which always displays may be sufficient and the form which displays according to the request | requirement from a user may be sufficient. For example, the user can request the display of the second composite image via a button operation, voice, mail, remote control or the like. Further, for example, the second composite image may be displayed at regular time intervals.

以上に説明した画像処理装置100は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能(カメラ制御部110、取得部120、第1生成部130(検出部131、補正部132、合成部133)、第2生成部150、表示制御部160)は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述した各部の機能のうちの少なくとも一部を専用のハードウェア回路(例えば半導体集積回路等)で実現することもできる。また、例えば上述の記憶部140は、ROMや外部記憶装置(例えばHDD)等により実現することができる。   The image processing apparatus 100 described above has a hardware configuration including a CPU (Central Processing Unit), a ROM, a RAM, a communication I / F device, and the like. The function of each unit described above (camera control unit 110, acquisition unit 120, first generation unit 130 (detection unit 131, correction unit 132, synthesis unit 133), second generation unit 150, display control unit 160) This is realized by expanding and executing the program stored in the RAM on the RAM. In addition, the present invention is not limited to this, and at least a part of the functions of each unit described above can be realized by a dedicated hardware circuit (for example, a semiconductor integrated circuit). Further, for example, the storage unit 140 described above can be realized by a ROM, an external storage device (for example, HDD), or the like.

また、上述の画像処理装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の画像処理装置100で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の画像処理装置100で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。   Further, the program executed by the image processing apparatus 100 described above may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program executed by the image processing apparatus 100 described above may be provided or distributed via a network such as the Internet. The program executed by the image processing apparatus 100 described above may be provided by being incorporated in advance in a non-volatile recording medium such as a ROM.

従来技術では、例えばドアの開閉と同時にユーザの手などが撮像範囲に侵入してきた場合やドアの移動速度が大きい場合においても、ユーザに提示すべき領域を含む画像を得ることができないという問題が起こる。すなわち、従来技術では、ユーザに提示する収納装置内の画像の品質が低いという問題がある。これに対して、以上に説明したように、本実施形態では、開き戸10の開動作または閉動作が行われる場合に、カメラ30による撮像で得られた複数の撮像画像を合成することにより、対象領域(本実施形態では、収納室21の入口全体)全体を表現することができる。より具体的には、本実施形態では、開き戸10の開動作または閉動作が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像を生成する。そして、その生成した第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する。したがって、例えばユーザが、収納室21の入口全体が完全に露出するまで開き戸10を開けなかった場合であっても、当該ユーザに対して、収納室21の入口全体が撮像された第2合成画像を提示することができる。すなわち、本実施形態によれば、ユーザに提示する冷蔵庫1内の画像の品質を向上させることができるという有利な効果を達成できる。   In the prior art, for example, even when the user's hand enters the imaging range at the same time as the door is opened or closed, or even when the door moving speed is high, an image including an area to be presented to the user cannot be obtained. Occur. That is, the conventional technique has a problem that the quality of the image in the storage device presented to the user is low. On the other hand, as described above, in the present embodiment, when the opening operation or the closing operation of the hinged door 10 is performed, by combining a plurality of captured images obtained by imaging with the camera 30, The entire region (in this embodiment, the entire entrance of the storage chamber 21) can be expressed. More specifically, in this embodiment, when the opening operation or the closing operation of the hinged door 10 is performed, a plurality of imaging is performed so that the same subject included in the plurality of imaging images obtained by imaging with the camera 30 overlaps. A first composite image is generated by combining the images. When the generated first composite image does not include a part of the target area indicating the area to be presented to the user in the storage room 21, a part of the target area is used using the past first composite image. To generate a second composite image for presentation to the user. Therefore, for example, even if the user does not open the hinged door 10 until the entire entrance of the storage chamber 21 is completely exposed, the second composite image in which the entire entrance of the storage chamber 21 is captured for the user. Can be presented. That is, according to this embodiment, the advantageous effect that the quality of the image in the refrigerator 1 presented to the user can be improved can be achieved.

(第2実施形態)
次に、第2実施形態について説明する。上述の第1実施形態と共通する部分については適宜に説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. Description of parts common to the first embodiment described above will be omitted as appropriate.

図12は、第2実施形態の画像処理装置200の構成の一例を示す図である。図12に示すように、画像処理装置200は、設定部170をさらに備える。   FIG. 12 is a diagram illustrating an example of the configuration of the image processing apparatus 200 according to the second embodiment. As illustrated in FIG. 12, the image processing apparatus 200 further includes a setting unit 170.

本実施形態では、検出部131は、上述の第1実施形態で説明した機能に加えて、収納室21に対するカメラ30の相対的な速度を検出する機能を有する。この例では、検出部131は、請求項の「速度検出部」に対応する機能を有していると考えることができる。以下の説明では、収納室21に対するカメラの相対的な速度を、「カメラ30の移動速度」あるいは「移動速度」と称する場合がある。この例では、検出部131は、撮像時のカメラ30の位置に対応する移動速度を求める。例えば検出部131は、上述の第1実施形態と同様にして検出したカメラ30の位置(複数の撮像時刻と1対1に対応する複数のカメラ位置)を利用して、撮像時のカメラ30の位置に対応する移動速度を求めることもできる。また、これに限らず、例えばカメラ30にジャイロや加速度計などを搭載し、これらの計器から出力される信号を利用して移動速度を求めることもできるし、それ以外の方法で求めても構わない。   In the present embodiment, the detection unit 131 has a function of detecting the relative speed of the camera 30 with respect to the storage chamber 21 in addition to the function described in the first embodiment. In this example, it can be considered that the detection unit 131 has a function corresponding to the “speed detection unit” in the claims. In the following description, the relative speed of the camera with respect to the storage chamber 21 may be referred to as “the moving speed of the camera 30” or “the moving speed”. In this example, the detection unit 131 obtains a moving speed corresponding to the position of the camera 30 at the time of imaging. For example, the detection unit 131 uses the position of the camera 30 detected in the same manner as in the first embodiment described above (a plurality of camera positions corresponding to a plurality of imaging times one to one) to detect the camera 30 at the time of imaging. The moving speed corresponding to the position can also be obtained. For example, a gyroscope, an accelerometer, or the like is mounted on the camera 30 and the moving speed can be obtained using signals output from these instruments, or can be obtained by other methods. Absent.

例えば検出部131は、開き戸10の開動作が行われる場合に、当該開動作に対応する検出情報を生成し、開き戸10の閉動作が行われる場合に、当該閉動作に対応する検出情報を生成することができる。この例における検出情報は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、撮像画像と移動速度とを対応付けた情報で構成される。   For example, the detection unit 131 generates detection information corresponding to the opening operation when the opening door 10 is opened, and generates detection information corresponding to the closing operation when the closing door 10 is closed. can do. The detection information in this example is configured by information in which a captured image and a moving speed are associated with each other for each of a plurality of detected positions (positions of the camera 30 at the time of imaging).

本実施形態では、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成し、その第1合成画像の生成に用いた検出情報を、当該第1合成画像とともに設定部170へ供給する。設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合(取得するたびに)、その取得した第1合成画像と検出情報とに基づいて、当該第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの移動速度が大きいほど低い値を示す第1信頼度を設定する。以下、具体的に説明する。   In the present embodiment, the first generation unit 130 generates a first composite image when the opening operation or the closing operation of the hinged door 10 is performed, and uses the detection information used for generating the first composite image as the first information. It is supplied to the setting unit 170 together with one composite image. When the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130 (each time it is acquired), the setting unit 170 performs the first composite image based on the acquired first composite image and the detection information. For each of a plurality of areas, a first reliability indicating a lower value is set as the moving speed when a captured image corresponding to the area is obtained is set. This will be specifically described below.

以下の説明において、第1信頼度は、0以上、かつ、1以下の範囲内の値であり、「1」が最も信頼性が高く、「0」が最も信頼性が低いことを表す。また、撮像時のカメラ30の位置pにおけるカメラ30の移動速度をVpと表記する。ここで、カメラ30が静止している(Vp=0)場合の撮像画像は、対象物(被写体)に対してフォーカス(焦点)が合っていればボケのない画像となる。ボケとは、撮像により画像が得られる際の過程で生じる画像劣化の一態様であり、1点に結像(集光)すべき光線群が像面上において広がることにより生じる事象を指す。一方、カメラ30の移動速度Vpが大きくなるほど、撮像画像中に動きボケが見られるようになるので、画質は低下し、信頼性の低い画像となる。つまり、カメラ30の移動速度Vpが大きくなるほど、第1信頼度は低下する(図13参照)。第1信頼度は、例えば以下の式1で表すことができる。

Figure 2019138622
In the following description, the first reliability is a value in the range of 0 or more and 1 or less, and “1” represents the highest reliability and “0” represents the lowest reliability. Further, the moving speed of the camera 30 at the position p of the camera 30 at the time of imaging is denoted as Vp. Here, the captured image when the camera 30 is stationary (Vp = 0) is an image with no blur if the object (subject) is in focus. Bokeh is an aspect of image degradation that occurs in the process of obtaining an image by imaging, and refers to an event that occurs when a group of rays to be focused (condensed) at one point spreads on the image plane. On the other hand, as the moving speed Vp of the camera 30 increases, motion blur is seen in the captured image, so that the image quality decreases and the image becomes less reliable. That is, the first reliability decreases as the moving speed Vp of the camera 30 increases (see FIG. 13). The first reliability can be expressed by the following formula 1, for example.
Figure 2019138622

上記式1において、Spは第1信頼度を表し、Vthは閾値となる速度を表す。これは、移動速度Vpが一定の速度Vth以下であれば、そのときの撮像画像は、信頼性の高い画像であると判断することに相当する。Vthは、カメラ30のフレームレートやシャッタースピード等によって設定すればよく、フレームレートが高い場合やシャッタースピードが速い場合は、Vthは大きい値に設定することができる。第1信頼度Spの算出方法は、上述の方法に限らず、移動速度Vpが大きくなるほど第1信頼度Spが低下するように設計することもできる。第1信頼度Spは、例えば以下の式2で表すこともできる。

Figure 2019138622
In the above formula 1, Sp represents the first reliability, and Vth represents the speed serving as a threshold value. This is equivalent to determining that the captured image at that time is a highly reliable image if the moving speed Vp is equal to or less than a certain speed Vth. Vth may be set according to the frame rate, shutter speed, or the like of the camera 30, and Vth can be set to a large value when the frame rate is high or when the shutter speed is fast. The calculation method of the first reliability Sp is not limited to the method described above, and the first reliability Sp can be designed to decrease as the moving speed Vp increases. The first reliability Sp can also be expressed by the following formula 2, for example.
Figure 2019138622

以上においては、画像のボケをカメラ30の移動速度から間接的に評価したが、これに限らず、例えば画像中のボケ量を直接計測し、ボケ量が大きいほど低い値を示す信頼度を算出する形態であってもよい。見方を変えれば、この信頼度も、移動速度が大きいほど(ボケ量が大きいほど)低い値を示す第1信頼度と同義であると考えることができる。   In the above, the blur of the image is indirectly evaluated from the moving speed of the camera 30. However, the present invention is not limited to this. For example, the blur amount in the image is directly measured, and the reliability indicating a lower value is calculated as the blur amount is larger. It may be a form to do. In other words, this reliability can be considered to be synonymous with the first reliability indicating a lower value as the moving speed is larger (the blur amount is larger).

本実施形態では、設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した検出情報を参照して、当該検出情報に含まれる複数の撮像画像ごとに、当該撮像画像に対応付けられた移動速度Vpに応じた第1信頼度Spを算出し、当該撮像画像に割り当てる。これにより、第1生成部130から取得した第1合成画像の元となる複数の撮像画像ごとに、当該撮像画像に対応付けられた移動速度Vpに応じた第1信頼度Spが割り当てられる。そして、設定部170は、第1生成部130から取得した第1合成画像のうち、当該第1合成画像の生成に用いられた検出情報(当該第1合成画像とともに第1生成部130から取得した検出情報)に含まれる複数の撮像画像と1対1に対応する複数の領域を特定し、特定した複数の領域ごとに、当該領域に対応する撮像画像に割り当てられた第1信頼度Spを設定する。   In the present embodiment, when the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, the setting unit 170 refers to the acquired detection information for each of the plurality of captured images included in the detection information. In addition, a first reliability Sp corresponding to the moving speed Vp associated with the captured image is calculated and assigned to the captured image. Thereby, the first reliability Sp corresponding to the moving speed Vp associated with the captured image is assigned to each of the plurality of captured images that are the basis of the first composite image acquired from the first generation unit 130. And the setting part 170 acquired from the 1st production | generation part 130 with the detection information used for the production | generation of the said 1st synthetic | combination image among the 1st synthetic | combination images acquired from the 1st production | generation part 130 (the said 1st synthetic image). The plurality of areas corresponding to the plurality of captured images included in the detection information) are identified, and the first reliability Sp assigned to the captured image corresponding to the area is set for each of the identified areas. To do.

以上のようにして、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に対応する撮像画像が得られたときのカメラ30の移動速度が大きいほど低い値を示す第1信頼度Spが設定されるという具合である。   As described above, for each of a plurality of regions in the first composite image acquired from the first generation unit 130 (a plurality of regions corresponding to a plurality of captured images that are the basis of the first composite image). The first reliability Sp indicating a lower value is set as the moving speed of the camera 30 when the captured image corresponding to the region is obtained is higher.

なお、第1生成部130から取得した第1合成画像内の、当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域のうち、互いに重なり合う部分に関しては、例えば互いに重なる複数の領域の各々の第1信頼度Sp1を乗算(例えば各第1信頼度Sp1に重みを付けた積でもよい)することで当該部分の第1信頼度Sp1を設定することもできるし、例えば互いに重なる複数の領域の各々の第1信頼度Sp1の平均値を算出することで当該部分の第1信頼度Sp1を設定することもできる。   Of the plurality of regions corresponding to the plurality of captured images that are the basis of the first composite image in the first composite image acquired from the first generation unit 130, with respect to portions that overlap each other, for example, It is also possible to set the first reliability Sp1 of the part by multiplying the first reliability Sp1 of each of a plurality of overlapping regions (for example, a product obtained by weighting each first reliability Sp1). For example, by calculating an average value of the first reliability Sp1 of each of a plurality of regions overlapping each other, the first reliability Sp1 of the part can be set.

また、例えば、カメラ30から撮像対象までの距離の概念を追加して、撮像画像内の画素毎に第1信頼度Sp1を割り当てることもできる。撮像対象までの距離はステレオカメラや距離計を用いて直接計測してもよいし、モーションステレオ等の方法で撮像画像から推定してもよい。また、撮像対象までの距離を直接利用しない場合は、カメラ30から収納室21の入口までの距離を利用する方法がある。   For example, the concept of the distance from the camera 30 to the imaging target can be added, and the first reliability Sp1 can be assigned to each pixel in the captured image. The distance to the imaging target may be directly measured using a stereo camera or a distance meter, or may be estimated from the captured image by a method such as motion stereo. In addition, when the distance to the imaging target is not directly used, there is a method of using the distance from the camera 30 to the entrance of the storage chamber 21.

ここで、撮像時のカメラ30の位置pに対応する撮像画像Ip中の任意の画素aの実空間上での距離(収納室21の入口までの距離)をLaとする。Laが大きいほど撮像画像内での被写体の動きは小さくなりボケは発生しにくくなる。従って、Laが大きい領域ほど信頼度が高くなるように設計する。反対にLaが小さいほどボケが発生しやすいので、Laが小さいほど信頼度が低くなるように設計することが好ましい。画素aに対応する距離を用いた信頼度をSpL(a)とすると、この信頼度SpL(a)は、例えば以下の式3で表すことができる。

Figure 2019138622
Here, let La be the distance (distance to the entrance of the storage chamber 21) in the real space of an arbitrary pixel a in the captured image Ip corresponding to the position p of the camera 30 at the time of imaging. As La is larger, the movement of the subject in the captured image becomes smaller and blurring is less likely to occur. Therefore, the region is designed so that the reliability is higher in a region where La is larger. On the other hand, blurring is more likely to occur as La is smaller. Therefore, it is preferable to design such that reliability is lower as La is smaller. If the reliability using the distance corresponding to the pixel a is SpL (a), this reliability SpL (a) can be expressed by, for example, the following Expression 3.
Figure 2019138622

上記式3において、Lthは任意の正の定数で、この距離以上はボケが発生しにくい距離となっている。なお、信頼度SpL(a)は上記以外の方法で算出しても構わない。上記信頼度SpL(a)と、画素aを含む撮像画像に対応する移動速度から算出される信頼度(例えば上記式1または上記式2などで算出される信頼度)SpVとから、画素aに対応する第1信頼度Sp1(a)を算出することもできる。第1信頼度Sp1(a)は、例えば以下の式4で表すことができる。

Figure 2019138622
In the above formula 3, Lth is an arbitrary positive constant, and the distance beyond this distance is less likely to cause blur. The reliability SpL (a) may be calculated by a method other than the above. From the reliability SpL (a) and the reliability calculated from the moving speed corresponding to the captured image including the pixel a (for example, the reliability calculated by the above formula 1 or 2) SpV, the pixel a The corresponding first reliability Sp1 (a) can also be calculated. The first reliability Sp1 (a) can be expressed by, for example, the following formula 4.
Figure 2019138622

上記式4以外にも、例えばSpL(a)とSpVとの和を求めて正規化する等の方法が考えられ、これら以外の方法でも構わない。そして、第1合成画像の元となる複数の撮像画像の各々に含まれる画素ごとに割り当てられた第1信頼度Sp1(a)を用いて、当該第1合成画像内の画素ごとの第1信頼度Sp1を求めることもできる。   In addition to the above formula 4, for example, a method such as obtaining the sum of SpL (a) and SpV and normalizing can be considered, and other methods may be used. Then, using the first reliability Sp1 (a) assigned to each pixel included in each of the plurality of captured images that are the basis of the first composite image, the first confidence for each pixel in the first composite image. The degree Sp1 can also be obtained.

設定部170は、第1生成部130から取得した第1合成画像内の複数の領域の各々に対する第1信頼度の設定を行った場合(行うたびに)、第1信頼度を設定した第1合成画像を記憶部140に格納するとともに、第1信頼度を設定した第1合成画像と、当該第1合成画像の生成に用いられた検出情報とを第2生成部150へ供給する。記憶部140は、第1信頼度が設定された第1合成画像を時系列に記憶する。   When setting the first reliability for each of the plurality of regions in the first composite image acquired from the first generation unit 130 (every time), the setting unit 170 sets the first reliability. The composite image is stored in the storage unit 140, and the first composite image in which the first reliability is set and the detection information used for generating the first composite image are supplied to the second generation unit 150. The storage unit 140 stores the first composite image in which the first reliability is set in time series.

第2生成部150は、上述の第1実施形態と同様に、設定部170から取得した第1合成画像が、収納室21の入口全体を含んでいない場合、過去の第1合成画像を用いて上述の不足領域を補完して第2合成画像を生成する。さらに、本実施形態の第2生成部150は、設定部170から取得した第1合成画像(最新の第1合成画像)、および、過去の第1合成画像の各々に設定された第1信頼度に基づいて、第2合成画像を生成する。より具体的には、第2生成部150は、最新の第1合成画像内の複数の領域のうち、第1信頼度が、過去の第1合成画像内の対応する領域の第1信頼度よりも低い値を示す領域については、過去の第1合成画像内の対応する領域に置き換える。これにより、第2合成画像の画質をさらに向上させることができるという有利な効果を達成できる。   Similar to the first embodiment described above, the second generation unit 150 uses the past first composite image when the first composite image acquired from the setting unit 170 does not include the entire entrance of the storage chamber 21. A second composite image is generated by complementing the above-described insufficient region. Furthermore, the second generation unit 150 of the present embodiment has the first reliability set for each of the first composite image (latest first composite image) acquired from the setting unit 170 and the past first composite image. Based on the above, a second composite image is generated. More specifically, the second generation unit 150 has a first reliability higher than a first reliability of a corresponding region in the past first composite image among a plurality of regions in the latest first composite image. A region showing a lower value is replaced with a corresponding region in the past first composite image. Thereby, the advantageous effect that the image quality of the second composite image can be further improved can be achieved.

(第3実施形態)
次に、第3実施形態について説明する。上述の各実施形態と共通する部分については適宜に説明を省略する。なお、第3実施形態に係る画像処理装置の基本的な構成は、第2実施形態に係る画像処理装置200と同様(図12の構成と同様)であるので、詳細な図示は省略する。
(Third embodiment)
Next, a third embodiment will be described. Description of parts common to the above-described embodiments will be omitted as appropriate. The basic configuration of the image processing apparatus according to the third embodiment is the same as that of the image processing apparatus 200 according to the second embodiment (similar to the configuration of FIG. 12), and thus detailed illustration is omitted.

本実施形態では、設定部170は、第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの時刻(撮像時刻)が現在の時刻に近いほど高い値を示す第2信頼度をさらに設定し、第2生成部150は、第1合成画像、および、過去の第1合成画像の各々に設定された第1信頼度および第2信頼度に基づいて、第2合成画像を生成する点で上述の第2実施形態と相違する。以下、第3実施形態の具体的な内容を説明する。   In the present embodiment, the setting unit 170 increases the value for each of a plurality of regions in the first composite image as the time (image capturing time) when the captured image corresponding to the region is obtained is closer to the current time. The second reliability shown is further set, and the second generation unit 150 sets the first reliability based on the first reliability and the second reliability set for each of the first composite image and the past first composite image. The second embodiment is different from the second embodiment in that two composite images are generated. The specific contents of the third embodiment will be described below.

上述の各実施形態と同様に、検出部131は、開き戸10の開動作が行われる場合に、当該開動作に対応する検出情報を生成し、開き戸10の閉動作が行われる場合に、当該閉動作に対応する検出情報を生成する。この例における検出情報は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、撮像画像と移動速度と撮像時刻とを対応付けた情報で構成される。   As in the above-described embodiments, when the opening operation of the hinged door 10 is performed, the detection unit 131 generates detection information corresponding to the opening operation, and when the opening operation of the hinged door 10 is performed, the detection unit 131 performs the closing operation. Detection information corresponding to the operation is generated. The detection information in this example is configured by information in which a captured image, a moving speed, and an imaging time are associated with each other for each of a plurality of detected positions (positions of the camera 30 at the time of imaging).

また、上述の第2実施形態と同様に、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成し、その第1合成画像の生成に用いた検出情報を、当該第1合成画像とともに設定部170へ供給する。   Similarly to the second embodiment described above, the first generation unit 130 generates a first composite image when the opening operation or the closing operation of the hinged door 10 is performed, and is used to generate the first composite image. The detected information is supplied to the setting unit 170 together with the first composite image.

設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した第1合成画像と検出情報とに基づいて、当該第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの移動速度が大きいほど低い値を示す第1信頼度を設定するとともに、当該領域に対応する撮像画像が得られたときの撮像時刻が現在の時刻に近いほど高い値を示す第2信頼度を設定し、その設定した第1信頼度と第2信頼度とに応じて規定される第3信頼度を設定する。第1信頼度の設定方法は上述の第2実施形態と同様である。   When the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, the setting unit 170, for each of a plurality of regions in the first composite image, based on the acquired first composite image and the detection information. In addition, the first reliability indicating a lower value is set as the moving speed when the captured image corresponding to the region is obtained is higher, and the imaging time when the captured image corresponding to the region is obtained is currently The second reliability indicating a higher value as the time is closer is set, and the third reliability defined according to the set first reliability and second reliability is set. The first reliability setting method is the same as that in the second embodiment.

第2信頼度は、0以上、かつ、1以下の範囲内の値であり、「1」は、最も信頼性が高いことを表し(撮像時刻が現在の時刻に最も近いことを表し)、「0」は、最も信頼性が低いことを表す。この例では、撮像時刻と現在の時刻との差が閾値以上の場合、第2信頼度は「0」に設定される。   The second reliability is a value within the range of 0 or more and 1 or less, and “1” represents that the reliability is the highest (represents that the imaging time is closest to the current time), “ “0” represents the lowest reliability. In this example, when the difference between the imaging time and the current time is greater than or equal to the threshold, the second reliability is set to “0”.

本実施形態では、設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した検出情報を参照して、当該検出情報に含まれる複数の撮像画像ごとに、当該撮像画像に対応付けられた撮像時刻と現在の時刻との差が大きいほど低い値を示す第2信頼度を算出し、当該撮像画像に割り当てる。これにより、第1生成部130から取得した第1合成画像の元となる複数の撮像画像ごとに、当該撮像画像に対応付けられた撮像時刻に応じた第2信頼度が割り当てられる。そして、設定部170は、第1生成部130から取得した第1合成画像のうち、当該第1合成画像の生成に用いられた検出情報に含まれる複数の撮像画像と1対1に対応する複数の領域を特定し、特定した複数の領域ごとに、当該領域に対応する撮像画像に割り当てられた第2信頼度を設定する。以上のようにして、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に対応する撮像画像が得られたときの撮像時刻が現在の時刻に近いほど低い値を示す第2信頼度が設定されるという具合である。   In the present embodiment, when the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, the setting unit 170 refers to the acquired detection information for each of the plurality of captured images included in the detection information. In addition, a second reliability indicating a lower value as the difference between the imaging time associated with the captured image and the current time is larger is calculated and assigned to the captured image. Thereby, the second reliability corresponding to the imaging time associated with the captured image is assigned to each of the plurality of captured images that are the basis of the first composite image acquired from the first generation unit 130. Then, the setting unit 170 has a plurality of one-to-one correspondences with the plurality of captured images included in the detection information used for generating the first composite image among the first composite images acquired from the first generation unit 130. The second reliability assigned to the captured image corresponding to the area is set for each of the specified areas. As described above, for each of a plurality of regions in the first composite image acquired from the first generation unit 130 (a plurality of regions corresponding to a plurality of captured images that are the basis of the first composite image). The second reliability indicating a lower value is set as the imaging time when the captured image corresponding to the region is obtained is closer to the current time.

そして、設定部170は、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に設定した第1信頼度と第2信頼度に応じて規定される第3信頼度を算出し、その算出した第3信頼度を当該領域に設定する。本実施形態では、設定部170は、第1信頼度と第2信頼度との乗算により、第3信頼度を求めるが、これに限らず、例えば第1信頼度および第2信頼度の各々に重みを付けた乗算により第3信頼度を求めてもよいし、例えば第1信頼度および第2信頼度の重み付きの平均値を算出して第3信頼度を求めてもよいし、例えば第1信頼度と第2信頼度の和を0〜1の範囲内の値に正規化して第3信頼度を求めてもよい。   Then, the setting unit 170 performs a plurality of regions in the first composite image acquired from the first generation unit 130 (a plurality of regions corresponding to a plurality of captured images that are the basis of the first composite image). In addition, a third reliability defined according to the first reliability and the second reliability set in the area is calculated, and the calculated third reliability is set in the area. In the present embodiment, the setting unit 170 obtains the third reliability by multiplying the first reliability and the second reliability. However, the setting unit 170 is not limited to this, and for example, each of the first reliability and the second reliability is determined. The third reliability may be obtained by weighted multiplication, for example, the third reliability may be obtained by calculating a weighted average value of the first reliability and the second reliability, The third reliability may be obtained by normalizing the sum of the first reliability and the second reliability to a value in the range of 0 to 1.

設定部170は、第1生成部130から取得した第1合成画像内の複数の領域の各々に対する第3信頼度の設定を行った場合、第3信頼度を設定した第1合成画像と、当該第1合成画像の生成に用いられた検出情報とを対応付けて記憶部140に格納するとともに、第2生成部150へ供給する。   When setting the third reliability for each of the plurality of regions in the first composite image acquired from the first generation unit 130, the setting unit 170 sets the first composite image with the third reliability, The detection information used for generating the first composite image is stored in the storage unit 140 in association with the detection information, and is supplied to the second generation unit 150.

なお、この例では、記憶部140に記憶された過去の第1合成画像に対応付けられた検出情報に含まれる撮像時刻と現在の時刻との差分は、時間の経過とともに増大していくので、設定部170は、第3信頼度を設定した第1合成画像を記憶部140に格納するたびに、過去の第1合成画像に対応付けられた検出情報に含まれる撮像時刻と現在時刻との差分に応じて、過去の第1合成画像内の各領域に設定された第3信頼度を更新することもできる。なお、撮像時刻と現在時刻との差分が閾値以上の場合は、第3信頼度を「0」に設定することもできる。   In this example, the difference between the imaging time and the current time included in the detection information associated with the past first composite image stored in the storage unit 140 increases with the passage of time. Every time the setting unit 170 stores the first composite image with the third reliability set in the storage unit 140, the difference between the imaging time included in the detection information associated with the past first composite image and the current time. Accordingly, it is possible to update the third reliability set for each region in the past first composite image. If the difference between the imaging time and the current time is greater than or equal to the threshold, the third reliability can be set to “0”.

第2生成部150は、上述の第1実施形態と同様に、設定部170から取得した第1合成画像が、収納室21の入口全体を含んでいない場合、過去の第1合成画像を用いて上述の不足領域を補完して第2合成画像を生成する。さらに、本実施形態の第2生成部150は、設定部170から取得した第1合成画像(最新の第1合成画像)、および、過去の第1合成画像の各々に設定された第3信頼度に基づいて、第2合成画像を生成する。より具体的には、第2生成部150は、最新の第1合成画像内の複数の領域のうち、第3信頼度が、過去の第1合成画像内の対応する領域の第3信頼度よりも低い値を示す領域については、過去の第1合成画像内の対応する領域に置き換える。   Similar to the first embodiment described above, the second generation unit 150 uses the past first composite image when the first composite image acquired from the setting unit 170 does not include the entire entrance of the storage chamber 21. A second composite image is generated by complementing the above-described insufficient region. Furthermore, the second generation unit 150 of the present embodiment has a third reliability set for each of the first composite image (latest first composite image) acquired from the setting unit 170 and the past first composite image. Based on the above, a second composite image is generated. More specifically, the second generation unit 150 has a third reliability higher than a third reliability of a corresponding region in the past first composite image among the plurality of regions in the latest first composite image. A region showing a lower value is replaced with a corresponding region in the past first composite image.

すなわち、本実施形態では、不足領域を補完することに加えて、画質の劣化と撮像時刻とを総合的に考慮して第2合成画像を生成することにより、第2合成画像の画質を向上させることができるという有利な効果を達成できる。   In other words, in the present embodiment, in addition to complementing the shortage area, the second composite image is generated by comprehensively considering the deterioration of the image quality and the imaging time, thereby improving the image quality of the second composite image. The advantageous effect of being able to be achieved can be achieved.

以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。以上の新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。以上の新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, each above-mentioned embodiment was shown as an example and is not intending limiting the range of invention. The above novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. The above novel embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

(変形例)
以下、変形例を説明する。
(Modification)
Hereinafter, modified examples will be described.

(1)変形例1
上述の各実施形態では、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成しているが、これに限らず、例えば第1生成部130は、開動作が行われる場合に第1合成画像を生成し、閉動作が行われても第1合成画像を生成しない形態であってもよい。また、例えば第1生成部130は、閉動作が行われる場合に第1合成画像を生成し、開動作が行われても第1合成画像を生成しない形態であってもよい。
(1) Modification 1
In each of the embodiments described above, the first generation unit 130 generates the first composite image when the opening operation or the closing operation of the hinged door 10 is performed. May be a form in which the first composite image is generated when the opening operation is performed and the first composite image is not generated even when the closing operation is performed. Further, for example, the first generation unit 130 may generate the first composite image when the closing operation is performed, and may not generate the first composite image even when the opening operation is performed.

また、例えば第1生成部130は、開動作および閉動作の両方が行われる場合に(開動作の開始から閉動作の終了までの一連の動作(以下の説明では、「開閉動作」と称する)が行われるたびに)、第1合成画像を生成する形態であってもよい。要するに、第1生成部130は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、第1合成画像を生成する形態であればよい。   Further, for example, when both the opening operation and the closing operation are performed, the first generation unit 130 (a series of operations from the start of the opening operation to the end of the closing operation (hereinafter referred to as “opening / closing operation”)). The first composite image may be generated every time the image is performed. In short, the 1st production | generation part 130 should just be a form which produces | generates a 1st synthesized image, when at least one of the opening operation | movement of the hinged door 10 and a closing operation | movement is performed.

ここで、例えば上述の開閉動作が行われる場合に第1合成画像を生成する場合を想定する。この形態において、例えば開動作における撮像時のカメラ30の位置(説明の便宜上、「第1の位置」と称する)と、閉動作における撮像時のカメラ30の位置(説明の便宜上、「第2の位置」と称する)とが近い(「一致」も含む)場合、同一領域(説明の便宜上、「重複領域」と称する)が、第1の位置および第2の位置の各々で撮像されている。このような場合、第1合成画像の生成に使用される画像を、フレームもしくは領域単位で選択する必要がある。その選択方法としては、第1の位置に対応する撮像画像のうち上記重複領域が撮像されている領域と、第2の位置に対応する撮像画像のうち上記重複領域が撮像されている領域とを比較し、信頼性が高い方を選択することが好ましい。例えば、上述の第3実施形態のように、撮像時の移動速度(ボケ量)と撮像時刻に応じた信頼度(第3信頼度)を、第1の位置に対応する撮像画像および第2の位置に対応する撮像画像の各々に設定し、当該信頼度が高い方の領域を選択することもできる。   Here, for example, it is assumed that the first composite image is generated when the above-described opening / closing operation is performed. In this embodiment, for example, the position of the camera 30 at the time of imaging in the opening operation (referred to as “first position” for convenience of description) and the position of the camera 30 at the time of imaging in the closing operation (for convenience of description “second” (Referred to as “overlapping area” for convenience of explanation) is imaged at each of the first position and the second position. In such a case, it is necessary to select an image used for generating the first composite image in units of frames or regions. As the selection method, an area where the overlapping area is imaged in the captured image corresponding to the first position and an area where the overlapping area is imaged in the captured image corresponding to the second position are selected. It is preferable to compare and select the one with higher reliability. For example, as in the third embodiment described above, the moving speed (blur amount) at the time of imaging and the reliability (third reliability) according to the imaging time are set to the captured image corresponding to the first position and the second It is also possible to select a region with higher reliability by setting each captured image corresponding to the position.

この例では、特に、同一撮像範囲であっても撮像時刻が後の撮像画像の方が、その情報の価値は高い。具体的には、一般的な冷蔵庫1の使用方法は、(1)開き戸10を開けて、(2)収納物の出し入れを行い、(3)開き戸10を閉じる、といった流れであり、上述の(2)の前後で収納室21の様子が変化するため、(3)の時点の様子が、真にユーザが知りたい情報となる。つまり、撮像時刻が後の撮像画像の方がより価値は高く、多少画像がボケている等の画質劣化があっても、信頼度が高くなるように設計するのが好ましい。また、同一撮像範囲の推定は、カメラ30の位置から撮像範囲を計算して推定することができるし、撮像画像同士を比較して似ている領域を算出する方法や、マーカ等を利用する方法でも推定可能である。   In this example, even in the same imaging range, the value of the information is higher in a captured image with a later imaging time. Specifically, a general method of using the refrigerator 1 is a flow of (1) opening the hinged door 10, (2) carrying in / out the stored items, and (3) closing the hinged door 10, Since the state of the storage chamber 21 changes before and after 2), the state at the time of (3) is the information that the user really wants to know. In other words, it is preferable that the captured image with the later imaging time has a higher value and is designed to have high reliability even when there is image quality degradation such as a slight blurring of the image. The same imaging range can be estimated by calculating the imaging range from the position of the camera 30, a method of calculating a similar region by comparing the captured images, a method of using a marker, or the like. But it can be estimated.

(2)変形例2
上述の各実施形態では、カメラ30は、開き戸10に設けられているが、これに限らず、例えばカメラ30が本体部20に設けられる形態であってもよい。この形態では、カメラ30は、開き戸10の開動作または閉動作に応じてドアポケット11(図1参照)との位置関係が変化するとともに当該ドアポケット11を連続的に撮像することになる。つまり、この形態では、ドアポケット11が、請求項の「収納室」に対応していると考えることができる。この形態でも、第1合成画像および第2合成画像の各々の生成に関する処理は、上述の各実施形態と同様に考えることができる。カメラ30が移動して収納室21を撮像することと、カメラ30が静止して移動する開き戸10を撮像することは、相対的な動きの観点からみれば同様であるからである。もし、移動する開き戸10上から本体部20に取り付けられたカメラ30(静止しているカメラ30)を観測した場合、カメラ30が移動しているように観測され、開き戸10上の観測者からはどちらが移動しているか区別することはできないということである。ところで、この場合の検出情報に含まれるカメラ30の位置(撮像時のカメラ30の位置)は、開き戸10の移動によって変化する座標系上の位置とする。こうすることによって、上述の各実施形態におけるカメラ30の位置と同様にして考えることが可能になる。なお、カメラ30の位置を推定する方法も、基本的には上述の各実施形態と同様である。ただし、カメラ30にジャイロやGPSなどの計器を取り付ける方法は不可能になるが、開き戸10にジャイロやGPSなどの計器を取り付けることによって、カメラ30の位置を推定することが可能となる。
(2) Modification 2
In each of the embodiments described above, the camera 30 is provided on the hinged door 10, but is not limited thereto, and for example, the camera 30 may be provided on the main body 20. In this embodiment, the camera 30 changes the positional relationship with the door pocket 11 (see FIG. 1) according to the opening or closing operation of the hinged door 10, and continuously images the door pocket 11. That is, in this embodiment, it can be considered that the door pocket 11 corresponds to the “storage chamber” in the claims. Also in this form, the processing relating to the generation of each of the first composite image and the second composite image can be considered in the same manner as in the above-described embodiments. This is because the movement of the camera 30 to image the storage room 21 and the imaging of the hinged door 10 to which the camera 30 moves stationary are the same from the viewpoint of relative movement. If the camera 30 (stationary camera 30) attached to the main body 20 is observed from above the moving hinge 10, the camera 30 is observed as moving, and from the observer on the hinge 10, It is impossible to distinguish which is moving. By the way, the position of the camera 30 (the position of the camera 30 at the time of imaging) included in the detection information in this case is a position on the coordinate system that changes as the hinged door 10 moves. By doing so, it is possible to consider in the same manner as the position of the camera 30 in each of the above-described embodiments. The method for estimating the position of the camera 30 is basically the same as that in each of the embodiments described above. However, it is impossible to attach a gyroscope or GPS instrument to the camera 30, but it is possible to estimate the position of the camera 30 by attaching a gyroscope or GPS instrument to the hinged door 10.

要するに、カメラ30は、開き戸10の開動作または閉動作に応じて収納室(収納室21またはドアポケット11)との位置関係が変化するとともに収納室を複数撮像する形態であればよい。また、第1生成部130は、開き戸の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像を生成する形態であればよい。また、第2生成部150は、第1合成画像が、収納室のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する形態であればよい。   In short, the camera 30 only needs to have a configuration in which the positional relationship with the storage chamber (the storage chamber 21 or the door pocket 11) changes according to the opening or closing operation of the hinged door 10 and a plurality of storage chambers are imaged. In addition, the first generation unit 130 is configured so that the same subject included in the plurality of captured images obtained by imaging with the camera 30 overlaps when at least one of the opening operation and the closing operation of the hinged door is performed. Any form may be used as long as the first composite image is generated by combining the captured images. In addition, when the first composite image does not include a part of the target area indicating the area to be presented to the user in the storage room, the second generation unit 150 uses the first composite image in the past to generate the target area. Any form may be used as long as the second composite image is generated to complement a part of the image and present it to the user.

(3)変形例3
上述の各実施形態では、請求項の「収納装置」の一例として、冷蔵庫1を挙げて説明したが、これに限られるものではない。例えば開き戸を有する食器棚、開き戸を有するキャビネット(書類を整理するための棚)、開き戸を有する冷凍機械などであってもよい。
(3) Modification 3
In each of the above-described embodiments, the refrigerator 1 has been described as an example of the “storage device” in the claims, but is not limited thereto. For example, it may be a cupboard having a hinged door, a cabinet having a hinged door (a shelf for organizing documents), a refrigeration machine having a hinged door, and the like.

なお、以上の各実施形態および各変形例は、任意に組み合わせることが可能である。   In addition, each above embodiment and each modification can be combined arbitrarily.

1 冷蔵庫
10 開き戸
11 ドアポケット
20 本体部
21 収納室
30 カメラ
40 センサ
50 表示部
100 画像処理装置
110 カメラ制御部
120 取得部
130 第1生成部
140 記憶部
150 第2生成部
160 表示制御部
170 設定部
DESCRIPTION OF SYMBOLS 1 Refrigerator 10 Folding door 11 Door pocket 20 Main body part 21 Storage room 30 Camera 40 Sensor 50 Display part 100 Image processing apparatus 110 Camera control part 120 Acquisition part 130 1st generation part 140 Storage part 150 2nd generation part 160 Display control part 170 Setting Part

Claims (5)

開き戸と、
物体を収納する収納室と、
前記開き戸の扉面の法線方向に傾斜して配置され、前記収納室を撮像する撮像部と、を備え、
前記撮像部は、
前記収納室の前面と前記開き戸とのなす角度が増加方向に変化すると撮像を開始し、前記角度の増加方向の変化量が閾値以下になると撮像を停止し、その後、前記角度の減少方向の変化量が閾値を超えると再び撮像を開始し、前記角度の減少方向の変化量が閾値以下になると撮像を停止する、
収納装置。
With hinged doors,
A storage room for storing objects;
An image capturing unit that is disposed to be inclined in the normal direction of the door surface of the hinged door and that images the storage room;
The imaging unit
Imaging starts when the angle between the front surface of the storage chamber and the hinged door changes in the increasing direction, stops imaging when the amount of change in the increasing direction of the angle falls below a threshold, and then changes in the decreasing direction of the angle When the amount exceeds the threshold value, the imaging is started again, and when the amount of change in the decreasing direction of the angle is equal to or less than the threshold value, the imaging is stopped.
Storage device.
前記撮像部の撮像軸は前記開き戸の回転軸の方に傾斜している、
請求項1に記載の収納装置。
The imaging axis of the imaging unit is inclined toward the rotation axis of the hinged door,
The storage device according to claim 1.
前記撮像部は、前記開き戸が開くほど、前記収納室のうち前記開き戸の回転軸から離れた部分を撮像する、
請求項1または2に記載の収納装置。
The imaging unit captures an image of a portion of the storage room that is away from the rotation axis of the hinged door as the hinged door is opened.
The storage device according to claim 1 or 2.
前記撮像部は、前記開き戸の開動作の開始から終了までに前記収納室全体を撮像するように設置される、
請求項1乃至3のうちの何れか1項に記載の収納装置。
The imaging unit is installed so as to image the entire storage chamber from the start to the end of the opening operation of the hinged door,
The storage device according to any one of claims 1 to 3.
前記撮像部による撮像で得られた複数の撮像画像を合成する生成部をさらに備える、
請求項1乃至4のうちの何れか1項に記載の収納装置。
A generation unit that combines a plurality of captured images obtained by imaging by the imaging unit;
The storage device according to any one of claims 1 to 4.
JP2019088995A 2019-05-09 2019-05-09 Storage device Active JP6794493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088995A JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088995A JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017237717A Division JP6527217B2 (en) 2017-12-12 2017-12-12 Storage device

Publications (2)

Publication Number Publication Date
JP2019138622A true JP2019138622A (en) 2019-08-22
JP6794493B2 JP6794493B2 (en) 2020-12-02

Family

ID=67695292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088995A Active JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Country Status (1)

Country Link
JP (1) JP6794493B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121606A1 (en) * 2021-12-21 2023-06-29 Arcelik Anonim Sirketi A refrigerator with camera wherein the opening distance of the door is detected

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0849958A (en) * 1994-08-08 1996-02-20 Koji Kusuno Refrigerator with inner state display device
JP2001294308A (en) * 2000-04-10 2001-10-23 Matsushita Electric Ind Co Ltd Article storage cabinet
JP2001317858A (en) * 2000-05-09 2001-11-16 Matsushita Refrig Co Ltd Refrigerator
JP2002247570A (en) * 2001-02-15 2002-08-30 Uchida Yoko Co Ltd Housing furniture with housed article retrieval function
JP2003004366A (en) * 2001-06-20 2003-01-08 Hitachi Ltd Refrigerator with internal condition transmitting device
US20030164754A1 (en) * 2000-08-18 2003-09-04 Rutger Roseen Method and apparatus for keeping a check on the storage time for goods in a storage
JP2014038374A (en) * 2012-08-10 2014-02-27 Sharp Corp Watching system, server, container, information terminal, program, and recording medium
US20140293060A1 (en) * 2013-03-27 2014-10-02 Inhwan Ryu Refrigerator
JP2015014401A (en) * 2013-07-04 2015-01-22 日立アプライアンス株式会社 Refrigerator
JP2015152211A (en) * 2014-02-13 2015-08-24 三菱電機株式会社 Shed management device and method
JP2015154259A (en) * 2014-02-14 2015-08-24 株式会社東芝 Storage device, image processing system, image processing method, and program
JP6527217B2 (en) * 2017-12-12 2019-06-05 東芝ライフスタイル株式会社 Storage device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0849958A (en) * 1994-08-08 1996-02-20 Koji Kusuno Refrigerator with inner state display device
JP2001294308A (en) * 2000-04-10 2001-10-23 Matsushita Electric Ind Co Ltd Article storage cabinet
JP2001317858A (en) * 2000-05-09 2001-11-16 Matsushita Refrig Co Ltd Refrigerator
US20030164754A1 (en) * 2000-08-18 2003-09-04 Rutger Roseen Method and apparatus for keeping a check on the storage time for goods in a storage
JP2002247570A (en) * 2001-02-15 2002-08-30 Uchida Yoko Co Ltd Housing furniture with housed article retrieval function
JP2003004366A (en) * 2001-06-20 2003-01-08 Hitachi Ltd Refrigerator with internal condition transmitting device
JP2014038374A (en) * 2012-08-10 2014-02-27 Sharp Corp Watching system, server, container, information terminal, program, and recording medium
US20140293060A1 (en) * 2013-03-27 2014-10-02 Inhwan Ryu Refrigerator
JP2015014401A (en) * 2013-07-04 2015-01-22 日立アプライアンス株式会社 Refrigerator
JP2015152211A (en) * 2014-02-13 2015-08-24 三菱電機株式会社 Shed management device and method
JP2015154259A (en) * 2014-02-14 2015-08-24 株式会社東芝 Storage device, image processing system, image processing method, and program
JP6527217B2 (en) * 2017-12-12 2019-06-05 東芝ライフスタイル株式会社 Storage device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121606A1 (en) * 2021-12-21 2023-06-29 Arcelik Anonim Sirketi A refrigerator with camera wherein the opening distance of the door is detected

Also Published As

Publication number Publication date
JP6794493B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
JP6266374B2 (en) Storage device, image processing device, image processing method, and program
JP6527217B2 (en) Storage device
US10242454B2 (en) System for depth data filtering based on amplitude energy values
CN111052727B (en) Electronic device and control method thereof
KR102534698B1 (en) Pass-through display of captured images
US9357203B2 (en) Information processing system using captured image, information processing device, and information processing method
KR102173106B1 (en) Electronic System With Augmented Reality Mechanism and Method of Operation Thereof
JP4547040B1 (en) Display image switching device and display image switching method
JP2020520603A5 (en)
CN110536057A (en) Image processing method and device, electronic equipment, computer readable storage medium
JP2019510234A (en) Depth information acquisition method and apparatus, and image acquisition device
JP2010136302A (en) Imaging apparatus, imaging method and program
JP2010147635A (en) Imaging apparatus, imaging method, and program
JP2010136303A (en) Imaging apparatus, imaging method, and program
US20210084231A1 (en) Electronic device including plurality of cameras, and operation method therefor
TW201209532A (en) Interaction control system, method for detecting motion of object, host apparatus and control method thereof
CN114419073B (en) Motion blur generation method and device and terminal equipment
CN109951638A (en) Camera stabilization system, method, electronic equipment and computer readable storage medium
US9699381B2 (en) Digital photographing motion compensation system and method
KR102650217B1 (en) Method for providing image and electronic device for supporting the same
WO2021035524A1 (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
WO2019163558A1 (en) Image processing device, image processing method, and program
JP6794493B2 (en) Storage device
US9251559B2 (en) Image generation device, camera device, image display device, and image generation method
US20150178589A1 (en) Apparatus for processing digital image and method of controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150