JP2018509030A - 撮像デバイスの視野における物体の奥行きによってトリガされるイベント - Google Patents
撮像デバイスの視野における物体の奥行きによってトリガされるイベント Download PDFInfo
- Publication number
- JP2018509030A JP2018509030A JP2017537487A JP2017537487A JP2018509030A JP 2018509030 A JP2018509030 A JP 2018509030A JP 2017537487 A JP2017537487 A JP 2017537487A JP 2017537487 A JP2017537487 A JP 2017537487A JP 2018509030 A JP2018509030 A JP 2018509030A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- imaging device
- view
- field
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
シーンをキャプチャするための方法であって、
撮像デバイスの視野における少なくとも1つの物体を識別することと、前記撮像デバイスは、前記視野の少なくとも1つの画像をキャプチャするように構成される、
閾値奥行きレベルを確立することと、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像デバイスを介して、前記視野における前記物体の画像をキャプチャすることと
を備える方法。
[C2]
前記視野内の前記少なくとも1つの物体の奥行きを前記測定することは、前記識別された少なくとも1つの物体に視差マッチングを適用することを備え、前記撮像デバイスは、ステレオオプティックスを備える、C1に記載の方法。
[C3]
前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定することをさらに備える、C2に記載の方法。
[C4]
前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
をさらに備える、C1に記載の方法。
[C5]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C1に記載の方法。
[C6]
前記撮像デバイスは、構造化光3Dスキャナを備える、C1に記載の方法。
[C7]
前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガすることをさらに備える、C1に記載の方法。
[C8]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C7に記載の方法。
[C9]
前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、C1に記載の方法。
[C10]
ユーザからの入力を介して前記閾値レベルを確立することをさらに備える、C1に記載の方法。
[C11]
前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立することをさらに備える、C1に記載の方法。
[C12]
シーンをキャプチャするための装置であって、
視野における少なくとも1つの画像をキャプチャするように構成された撮像システムと、
前記撮像システムに動作可能に結合されたプロセッサと
を備え、前記プロセッサは、
前記視野における少なくとも1つの物体を識別することと、
閾値奥行きレベルを確立することと、
前記撮像システムに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値奥行きレベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像システムを介して、前記視野における前記物体の画像をキャプチャすることと
を行うように構成される、装置。
[C13]
前記視野内の前記少なくとも1つの物体の奥行きを測定するように構成された前記処理することは、前記識別された少なくとも1つの物体に視差マッチングを適用するように構成された前記プロセッサを備え、前記撮像デバイスは、ステレオオプティックスを備える、C12に記載の装置。
[C14]
前記プロセッサは、前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するようにさらに構成される、C13に記載の装置。
[C15]
前記プロセッサは、
前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
を行うようにさらに構成される、C12に記載の装置。
[C16]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C12に記載の装置。
[C17]
前記撮像デバイスは、構造化光3Dスキャナを備える、C12に記載の装置。
[C18]
前記プロセッサは、前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするようにさらに構成される、C12に記載の装置。
[C19]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C18に記載の装置。
[C20]
前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、C12に記載の装置。
[C21]
前記プロセッサは、ユーザからの入力を介して前記閾値レベルを確立するようにさらに構成される、C12に記載の装置。
[C22]
前記プロセッサは、前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立するようにさらに構成される、C12に記載の装置。
[C23]
シーンをキャプチャするための装置であって、
撮像デバイスの視野における少なくとも1つ物体を識別するための手段と、
閾値奥行きレベルを確立するための手段と、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定するための手段と、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較するための手段と、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記視野における前記物体の画像をキャプチャするための手段と
を備える装置。
[C24]
奥行きを測定するための前記手段は、前記識別された少なくとも1つの物体に視差マッチングを適用するための手段を備え、前記撮像デバイスは、ステレオオプティックスを備える、C23に記載の装置。
[C25]
前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するための手段をさらに備える、C24に記載の装置。
[C26]
前記撮像デバイスの前記視野における背景を識別するための手段と、
前記背景に前記視差マッチングを適用するための手段と、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定するための手段と
をさらに備える、C23に記載の装置。
[C27]
前記撮像デバイスは、ステレオオプティックスカメラを備える、C23に記載の装置。
[C28]
前記撮像デバイスは、構造化光3Dスキャナを備える、C23に記載の装置。
[C29]
前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするための手段をさらに備える、C23に記載の装置。
[C30]
前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、C29に記載の装置。
Claims (30)
- シーンをキャプチャするための方法であって、
撮像デバイスの視野における少なくとも1つの物体を識別することと、前記撮像デバイスは、前記視野の少なくとも1つの画像をキャプチャするように構成される、
閾値奥行きレベルを確立することと、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像デバイスを介して、前記視野における前記物体の画像をキャプチャすることと
を備える方法。 - 前記視野内の前記少なくとも1つの物体の奥行きを前記測定することは、前記識別された少なくとも1つの物体に視差マッチングを適用することを備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項1に記載の方法。
- 前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定することをさらに備える、請求項2に記載の方法。
- 前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
をさらに備える、請求項1に記載の方法。 - 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項1に記載の方法。
- 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項1に記載の方法。
- 前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガすることをさらに備える、請求項1に記載の方法。
- 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項7に記載の方法。
- 前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、請求項1に記載の方法。
- ユーザからの入力を介して前記閾値レベルを確立することをさらに備える、請求項1に記載の方法。
- 前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立することをさらに備える、請求項1に記載の方法。
- シーンをキャプチャするための装置であって、
視野における少なくとも1つの画像をキャプチャするように構成された撮像システムと、
前記撮像システムに動作可能に結合されたプロセッサと
を備え、前記プロセッサは、
前記視野における少なくとも1つの物体を識別することと、
閾値奥行きレベルを確立することと、
前記撮像システムに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定することと、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値奥行きレベルと比較することと、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記撮像システムを介して、前記視野における前記物体の画像をキャプチャすることと
を行うように構成される、装置。 - 前記視野内の前記少なくとも1つの物体の奥行きを測定するように構成された前記処理することは、前記識別された少なくとも1つの物体に視差マッチングを適用するように構成された前記プロセッサを備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項12に記載の装置。
- 前記プロセッサは、前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するようにさらに構成される、請求項13に記載の装置。
- 前記プロセッサは、
前記撮像デバイスの前記視野における背景を識別することと、
前記背景に前記視差マッチングを適用することと、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定することと
を行うようにさらに構成される、請求項12に記載の装置。 - 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項12に記載の装置。
- 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項12に記載の装置。
- 前記プロセッサは、前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするようにさらに構成される、請求項12に記載の装置。
- 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項18に記載の装置。
- 前記画像は、前記視野内の前記物体の前記奥行きが閾値範囲内であるときにキャプチャされる、請求項12に記載の装置。
- 前記プロセッサは、ユーザからの入力を介して前記閾値レベルを確立するようにさらに構成される、請求項12に記載の装置。
- 前記プロセッサは、前記視野の前記測定された奥行きの平均に基づいて自動的に前記閾値レベルを確立するようにさらに構成される、請求項12に記載の装置。
- シーンをキャプチャするための装置であって、
撮像デバイスの視野における少なくとも1つ物体を識別するための手段と、
閾値奥行きレベルを確立するための手段と、
前記撮像デバイスに対する、前記視野内の前記少なくとも1つの物体の奥行きを測定するための手段と、
前記少なくとも1つの物体の前記測定された奥行きを、前記閾値レベルと比較するための手段と、
前記視野内の前記物体の前記奥行きが前記閾値レベルを超えるとき、前記視野における前記物体の画像をキャプチャするための手段と
を備える装置。 - 奥行きを測定するための前記手段は、前記識別された少なくとも1つの物体に視差マッチングを適用するための手段を備え、前記撮像デバイスは、ステレオオプティックスを備える、請求項23に記載の装置。
- 前記適用された視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを測定するための手段をさらに備える、請求項24に記載の装置。
- 前記撮像デバイスの前記視野における背景を識別するための手段と、
前記背景に前記視差マッチングを適用するための手段と、
前記背景に適用されたような前記視差マッチングに少なくとも部分的に基づいて、前記背景の奥行きを決定するための手段と
をさらに備える、請求項23に記載の装置。 - 前記撮像デバイスは、ステレオオプティックスカメラを備える、請求項23に記載の装置。
- 前記撮像デバイスは、構造化光3Dスキャナを備える、請求項23に記載の装置。
- 前記物体の前記測定された奥行きが前記閾値レベルを超えることに基づいてイベントをトリガするための手段をさらに備える、請求項23に記載の装置。
- 前記トリガされるイベントは、前記撮像デバイスに焦点を合わせること、警報をアクティブにすること、ビデオを記録すること、音を記録すること、外部アクションを可能にすること、のうちの少なくとも1つを備える、請求項29に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/598,791 US10277888B2 (en) | 2015-01-16 | 2015-01-16 | Depth triggered event feature |
US14/598,791 | 2015-01-16 | ||
PCT/US2015/066301 WO2016114897A1 (en) | 2015-01-16 | 2015-12-17 | Event triggered by the depth of an object in the field of view of an imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018509030A true JP2018509030A (ja) | 2018-03-29 |
Family
ID=55229822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017537487A Pending JP2018509030A (ja) | 2015-01-16 | 2015-12-17 | 撮像デバイスの視野における物体の奥行きによってトリガされるイベント |
Country Status (5)
Country | Link |
---|---|
US (1) | US10277888B2 (ja) |
EP (1) | EP3245616A1 (ja) |
JP (1) | JP2018509030A (ja) |
CN (1) | CN107111764B (ja) |
WO (1) | WO2016114897A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086133A1 (en) * | 2016-11-14 | 2018-05-17 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
CN110163976B (zh) * | 2018-07-05 | 2024-02-06 | 腾讯数码(天津)有限公司 | 一种虚拟场景转换的方法、装置、终端设备及存储介质 |
CN109460077B (zh) * | 2018-11-19 | 2022-05-17 | 深圳博为教育科技有限公司 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
KR102040939B1 (ko) * | 2019-07-15 | 2019-11-27 | 한화테크윈 주식회사 | 감시 시스템 및 그 동작 방법 |
US11836940B2 (en) * | 2020-06-15 | 2023-12-05 | Zebra Technologies Corporation | Three-dimensional sensor acuity recovery assistance |
US20220021822A1 (en) * | 2020-07-14 | 2022-01-20 | International Business Machines Corporation | Guided multi-spectral inspection |
US12003894B1 (en) * | 2020-12-29 | 2024-06-04 | Waymo Llc | Systems, methods, and apparatus for event detection |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334760A (ja) * | 2006-06-16 | 2007-12-27 | Auto Network Gijutsu Kenkyusho:Kk | ドライブレコーダ |
JP2010019423A (ja) * | 2009-09-24 | 2010-01-28 | Jtekt Corp | 転がり軸受装置 |
JP2013127754A (ja) * | 2011-12-19 | 2013-06-27 | Fujitsu Ltd | 記録装置、記録プログラム及び記録方法 |
US20140118486A1 (en) * | 2009-11-19 | 2014-05-01 | Robert Bosch Gmbh | Rear-view multi-functional camera system with driving corridor monitoring features |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
DE60325536D1 (de) * | 2002-09-20 | 2009-02-12 | Nippon Telegraph & Telephone | Vorrichtung zum Erzeugen eines pseudo-dreidimensionalen Bildes |
US6956469B2 (en) | 2003-06-13 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for pedestrian detection |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
KR101547151B1 (ko) * | 2008-12-26 | 2015-08-25 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
US8203602B2 (en) | 2009-02-06 | 2012-06-19 | Robert Bosch Gmbh | Depth-aware blur kernel estimation method for iris deblurring |
CN101527046B (zh) * | 2009-04-28 | 2012-09-05 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种运动检测方法、装置和系统 |
CN101877131A (zh) * | 2009-04-28 | 2010-11-03 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种目标识别方法、装置及目标识别系统 |
US8611604B2 (en) * | 2009-06-03 | 2013-12-17 | Chubu University Educational Foundation | Object detection device |
US8711198B2 (en) * | 2009-06-04 | 2014-04-29 | Hewlett-Packard Development Company, L.P. | Video conference |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8027582B2 (en) * | 2009-12-21 | 2011-09-27 | Sony Corporation | Autofocus with confidence measure |
JPWO2011086636A1 (ja) | 2010-01-13 | 2013-05-16 | パナソニック株式会社 | ステレオ画像用撮像装置、ステレオ画像用撮像方法、ステレオ画像表示装置、および、プログラム |
US9171372B2 (en) * | 2010-11-23 | 2015-10-27 | Qualcomm Incorporated | Depth estimation based on global motion |
JP5648443B2 (ja) * | 2010-11-26 | 2015-01-07 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8760567B2 (en) | 2010-12-21 | 2014-06-24 | Samsung Electronics Co., Ltd. | Photographing apparatus and method to reduce auto-focus time |
US9237331B2 (en) | 2011-01-18 | 2016-01-12 | Disney Enterprises, Inc. | Computational stereoscopic camera system |
CN102075777B (zh) * | 2011-01-26 | 2015-02-11 | Tcl集团股份有限公司 | 一种基于运动对象的视频图像平面转立体处理方法 |
US9470778B2 (en) * | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
CN102855459B (zh) * | 2011-06-30 | 2015-11-25 | 株式会社理光 | 用于特定前景物体的检测验证的方法和系统 |
US20130229485A1 (en) * | 2011-08-30 | 2013-09-05 | Nokia Corporation | Apparatus, a Method and a Computer Program for Video Coding and Decoding |
JP5821457B2 (ja) * | 2011-09-20 | 2015-11-24 | ソニー株式会社 | 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム |
WO2013090830A1 (en) * | 2011-12-16 | 2013-06-20 | University Of Southern California | Autonomous pavement condition assessment |
WO2013107931A1 (en) * | 2012-01-19 | 2013-07-25 | Nokia Corporation | An apparatus, a method and a computer program for video coding and decoding |
CN102622769B (zh) * | 2012-03-19 | 2015-03-04 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
KR101930235B1 (ko) | 2012-05-15 | 2018-12-18 | 삼성전자 주식회사 | 디지털 이미지 안정화 방법, 장치 및 시스템 |
US9503645B2 (en) * | 2012-05-24 | 2016-11-22 | Mediatek Inc. | Preview system for concurrently displaying multiple preview images generated based on input image generated by image capture apparatus and related preview method thereof |
US9349207B2 (en) * | 2012-05-31 | 2016-05-24 | Samsung Electronics Co., Ltd. | Apparatus and method for parsing human body image |
CN102890791A (zh) * | 2012-08-31 | 2013-01-23 | 浙江捷尚视觉科技有限公司 | 基于深度信息聚类的复杂场景人数统计方法 |
US10659763B2 (en) * | 2012-10-09 | 2020-05-19 | Cameron Pace Group Llc | Stereo camera system with wide and narrow interocular distance cameras |
CN102982557B (zh) * | 2012-11-06 | 2015-03-25 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
WO2014165244A1 (en) * | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9633442B2 (en) * | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US10122993B2 (en) * | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
JP2016524125A (ja) | 2013-03-15 | 2016-08-12 | ペリカン イメージング コーポレイション | カメラアレイを用いた立体撮像のためのシステムおよび方法 |
IN2013CH05313A (ja) * | 2013-11-18 | 2015-05-29 | Nokia Corp | |
US9407896B2 (en) * | 2014-03-24 | 2016-08-02 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions |
US9524556B2 (en) * | 2014-05-20 | 2016-12-20 | Nokia Technologies Oy | Method, apparatus and computer program product for depth estimation |
CN104052992B (zh) * | 2014-06-09 | 2018-02-27 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105519106B (zh) * | 2014-06-20 | 2017-08-04 | 寰发股份有限公司 | 用于三维或多视图视频编码中基于深度的块分区模式的编码方法 |
CN104268851A (zh) * | 2014-09-05 | 2015-01-07 | 浙江捷尚视觉科技股份有限公司 | 一种基于深度信息的atm自助营业厅行为分析方法 |
US9607394B2 (en) * | 2014-11-20 | 2017-03-28 | Lenovo (Beijing) Co., Ltd. | Information processing method and electronic device |
US9940717B2 (en) * | 2014-12-23 | 2018-04-10 | Intel Corporation | Method and system of geometric camera self-calibration quality assessment |
US9712809B2 (en) * | 2015-05-22 | 2017-07-18 | Intel Corporation | Integrated digital camera platform with NIR apodization filter for enhanced depth sensing and image processing |
-
2015
- 2015-01-16 US US14/598,791 patent/US10277888B2/en active Active
- 2015-12-17 WO PCT/US2015/066301 patent/WO2016114897A1/en active Application Filing
- 2015-12-17 CN CN201580071597.1A patent/CN107111764B/zh active Active
- 2015-12-17 EP EP15828593.2A patent/EP3245616A1/en not_active Withdrawn
- 2015-12-17 JP JP2017537487A patent/JP2018509030A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334760A (ja) * | 2006-06-16 | 2007-12-27 | Auto Network Gijutsu Kenkyusho:Kk | ドライブレコーダ |
JP2010019423A (ja) * | 2009-09-24 | 2010-01-28 | Jtekt Corp | 転がり軸受装置 |
US20140118486A1 (en) * | 2009-11-19 | 2014-05-01 | Robert Bosch Gmbh | Rear-view multi-functional camera system with driving corridor monitoring features |
JP2013127754A (ja) * | 2011-12-19 | 2013-06-27 | Fujitsu Ltd | 記録装置、記録プログラム及び記録方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 |
Also Published As
Publication number | Publication date |
---|---|
CN107111764B (zh) | 2021-07-16 |
CN107111764A (zh) | 2017-08-29 |
EP3245616A1 (en) | 2017-11-22 |
WO2016114897A1 (en) | 2016-07-21 |
US20160212410A1 (en) | 2016-07-21 |
US10277888B2 (en) | 2019-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018509030A (ja) | 撮像デバイスの視野における物体の奥行きによってトリガされるイベント | |
US10116922B2 (en) | Method and system for automatic 3-D image creation | |
US11263751B2 (en) | Method and apparatus for image segmentation using an event sensor | |
CN109922251B (zh) | 快速抓拍的方法、装置及系统 | |
US9813607B2 (en) | Method and apparatus for image capture targeting | |
KR101172747B1 (ko) | 열화상 좌표를 이용한 보안용 카메라 추적 감시 시스템 및 방법 | |
KR101530255B1 (ko) | 객체 자동 추적 장치가 구비된 cctv 시스템 | |
US8983121B2 (en) | Image processing apparatus and method thereof | |
US9396757B2 (en) | Video remixing system | |
CN105744138B (zh) | 快速对焦方法和电子设备 | |
JP2018513992A (ja) | 連続オートフォーカスのためのシステムおよび方法 | |
JP2020031421A (ja) | 複数のカメラからのビューを組み合わせる方法及びカメラシステム | |
US8406468B2 (en) | Image capturing device and method for adjusting a position of a lens of the image capturing device | |
CN115760912A (zh) | 运动目标跟踪方法、装置、设备及计算机可读存储介质 | |
JP5693147B2 (ja) | 撮影妨害検知方法、妨害検知装置及び監視カメラシステム | |
US11190670B2 (en) | Method and a system for processing images based a tracked subject | |
CN114697528A (zh) | 图像处理器、电子设备及对焦控制方法 | |
US11659135B2 (en) | Slow or fast motion video using depth information | |
US20240046426A1 (en) | Noise removal for surveillance camera image by means of ai-based object recognition | |
CN115380524A (zh) | 用于实时捕捉增强的媒体的方法和系统 | |
CN118175416A (zh) | 影像撷取系统及其方法 | |
JP2023063765A (ja) | 画像処理装置、画像処理方法、画像処理システム、およびプログラム | |
CN115174872A (zh) | 一种监控方法及装置 | |
JP2015109614A (ja) | カメラシステム、制御装置およびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170927 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200804 |