JP2021517682A - 意味処理および動的シーンモデリングに基づく向上された画像形成のための方法 - Google Patents
意味処理および動的シーンモデリングに基づく向上された画像形成のための方法 Download PDFInfo
- Publication number
- JP2021517682A JP2021517682A JP2020544504A JP2020544504A JP2021517682A JP 2021517682 A JP2021517682 A JP 2021517682A JP 2020544504 A JP2020544504 A JP 2020544504A JP 2020544504 A JP2020544504 A JP 2020544504A JP 2021517682 A JP2021517682 A JP 2021517682A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- scene
- image frame
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 42
- 230000015572 biosynthetic process Effects 0.000 title claims description 15
- 238000000034 method Methods 0.000 title description 11
- 230000006854 communication Effects 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 claims abstract description 26
- 230000005055 memory storage Effects 0.000 claims abstract description 14
- 230000003044 adaptive effect Effects 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 23
- 230000006978 adaptation Effects 0.000 claims description 21
- 238000013473 artificial intelligence Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 10
- 238000013499 data model Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000007175 bidirectional communication Effects 0.000 claims description 2
- 230000002730 additional effect Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 claims 1
- 230000007704 transition Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 22
- 238000013461 design Methods 0.000 description 23
- 230000007246 mechanism Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 6
- 230000010354 integration Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010367 cloning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/665—Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本出願は、2018年4月4日に出願された「Methods for enhanced imaging based on semantic processing and dynamic scene modeling」と題する米国仮特許出願第62/652,891号に対して米国特許法第119条の優先権を主張する。同出願はその全体が本明細書において参照により組み込まれる。
予測および適応シーンモデリングモジュールは1または複数の以前の画像フレーム内のシーンデータの変化の動向を分析し、追跡し得る。1または複数のシーンモデルが、来たるべき画像フレームのために必要とされるピクセルパラメータ変更を予測するために異なる関心シーン領域内の1または複数の顕著な要素を監視し、追跡するための予測方策として維持される。モデルはシーンデータを追跡し、これにより、それらは、その種類の顕著な要素のために最も適したピクセルパラメータを調整することができる。各領域の要求の特定に基づいて、予測および適応シーンモデリングモジュールは、同じフレーム内の異なる顕著または非顕著領域を特定の解像度、フレームレート、またはダイナミックレンジのために同時に最適化するために、ピクセルまたは領域ベースのパラメータをセンサ制御ユニットおよびその画像センサへ迅速にフィードバックする。
予測および適応シーンモデリングモジュールはまた、そして、1)画像センサ、または2)センサ制御ユニットと画像処理ユニットとの間の通信ループによって課される、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限内に収まるよう、顕著な要素を有しないそれらの領域内の1)イメージャ解像度、2)ダイナミックレンジ、および/または3)フレームレートのうちの少なくとも1つを維持するか、または減少させ得る。
図9は、本明細書において説明される設計の一実施形態に係るネットワーク環境内で互いに通信する多数の電子システムおよびデバイスを示す。モジュールの部分はクラウドプロバイダプラットフォーム904内に配置することができ、その一方で、画像センサを含むシステムの他の部分はモバイルコンピューティングデバイス902A〜902Fなどのクライアントデバイス上に配置され得る。
図10は、本明細書において説明される設計の一実施形態に係る、全体的または部分的に、サーバまたはクライアントコンピューティングデバイスのうちの1または複数の一部であることができるコンピューティングシステム1000を示す。図10を参照すると、コンピューティングシステム1000の構成要素は、限定するものではないが、1または複数の処理コアを有する処理ユニット920、システムメモリ930、およびシステムメモリ930を含む様々なシステム構成要素を処理ユニット920に結合するシステムバス921を含むことができる。システムバス921は、メモリバスもしくはメモリコントローラ、周辺バス、および種々のバスアーキテクチャのうちのいずれかを用いたローカルバスから選択されるいくつかの種類のバス構造であり得る。
300 画像フレーム
400 スマートビジョンアーキテクチャ
500 画像センサ
600 画像フレーム
700 シーン
900 ネットワーク環境
902A 第1のモバイルコンピューティングデバイス
902B 第1のポータブルコンピュータ
902C 第1のウェアラブル電子デバイス
902D 第1のスマート自動車
902E 第2のモバイルコンピューティングデバイス
902F 第3のモバイルコンピューティングデバイス、第2のポータブルコンピュータ
902H 第1のスマートテレビ
904 クラウドプロバイダプラットフォーム
904A 第1のサーバコンピューティングシステム
904B 第2のサーバコンピューティングシステム
904C 仮想現実ヘッドセット
906A、906B データベース
910 通信ネットワーク
920 処理ユニット
921 システムバス
930 システムメモリ
931 リードオンリーメモリ
932 ランダムアクセスメモリ
934 オペレーティングシステム
935 アプリケーションプログラム
936 他の実行可能ソフトウェア
937 プログラムデータ
960 ユーザ入力インターフェース
962 ソフトウェアもしくはハードウェア入力ボタン
963 マイクロフォン
970 ネットワークインターフェース、アダプタ
971 ローカルエリアネットワーク
972 パーソナルエリアネットワーク
973 ワイドエリアネットワーク
980 リモートコンピューティングシステム
990 ディスプレイインターフェース
991 表示モニタ
995 出力周辺インターフェース
997 スピーカ
999 バイブレータ
1000 コンピューティングシステム
1100 システム
Claims (22)
- 1または複数のプロセッサによって実行可能なフォーマットで命令を記憶した非一時的コンピュータ可読媒体であって、前記命令が、以下のとおりの動作、
センサ制御ユニットを用いて、i)局所的解像度、ii)ダイナミックレンジ、およびiii)フレームレートのピクセルパラメータを同時に独立して制御するよう画像品質情報を最適化することであって、前記独立した制御が、i)少なくとも、以前の画像フレームにおいて何が文脈的に起きていたのかの文脈理解、シーンの文脈理解、および予想されるシーンの文脈理解のうちのいずれか、ならびにii)顕著な要素が第1の画像フレームの第1の領域および前記第1の画像フレームの第2の領域のうちのいずれかの内部に配置されているかどうかに基づいて、前記第1の画像フレームの複数の領域内で行われ、前記第1の領域内のピクセルのためのピクセルパラメータが、その同じ第1の画像フレームのための前記第2の領域から収集されるピクセルデータのための前記ピクセルパラメータとは異なって動作するように構成される、最適化することと、
前記センサ制御ユニットを用いて、前記第1の領域内においては、ピクセルのためのi)前記局所的解像度、ii)前記ダイナミックレンジ、およびiii)前記フレームレートのうちのいずれかのピクセルパラメータを増大させるか、または減少させ、その一方で、同時に、前記第1の画像フレーム内に包含された顕著でない要素を包含する、前記第2の領域内においては、i)前記局所的解像度、ii)前記フレームレート、およびiii)前記ダイナミックレンジのうちのいずれかを維持するか、増大させるか、または低減させるよう、出力ピクセルデータレートを調整することと、
を含む動作を行わせる、非一時的コンピュータ可読媒体。 - 前記1または複数のプロセッサによって実行可能な前記フォーマットで記憶された前記命令が、以下のとおりのさらなる動作を行わせるように構成されており、すなわち、
前記第1の領域のための画像ピクセルデータが、その同じ画像フレームのための前記第2の領域内の前記ピクセルからの前記画像ピクセルデータとは異なる時点におけるそれらのピクセルから収集される、請求項1に記載の非一時的コンピュータ可読媒体。 - 前記1または複数のプロセッサによる前記実行可能フォーマットの前記記憶された命令が、以下のとおりのさらなる動作、すなわち、
前記センサ制御ユニットを用いて、前記第1の画像フレームの全体を構成する1または複数の領域にわたるが、前記第1の画像フレーム全体にわたるものではないピクセルに、向上した性能のピクセルパラメータを適用し、それゆえ、i)少なくとも、前記以前の画像フレームにおいて何が文脈的に起きていたのかの前記文脈理解、およびii)顕著な要素が、前記第1の画像フレームの前記第1の領域、前記第1の画像フレームの前記第2の領域、または前記第1および第2の領域の両方のうちのいずれかの内部に配置されているかどうかに基づいて、前記画像フレーム全体を構成する一部のピクセルがより低い性能のピクセルパラメータで動作しているのと同時に、他のピクセルが前記向上した性能のピクセルパラメータで動作していることと、
別個のコントローラを用いて、少なくとも環境照明条件に基づいて、前記第1の画像フレーム全体を構成する前記ピクセルの全てのためのピクセルパラメータの全域変更を行うことと、
を行わせるように構成されている、請求項1に記載の非一時的コンピュータ可読媒体。 - 合成器モジュールを用いて、前記第1の画像フレームを構成する前記領域の全てからの前記画像ピクセルデータの全てを収集し、そして、前記第1の画像フレームと相互関係がある識別子に基づいて、前記第1の画像フレームのための、異なるサイクル上で収集された少なくとも前記第1の領域および前記第2の領域からの画像ピクセルデータを再構成させることをさらに含む、請求項2に記載の非一時的コンピュータ可読媒体。
- 以前の画像フレーム内の動向を追跡し、シーンデータモデルを参照し、1または複数の人工知能アルゴリズムを利用して、前記第1の画像フレーム内で何が文脈的に起きているのかを理解し、そして、i)前記以前の画像フレーム内で何が文脈的に起きていたのかの前記文脈理解、およびii)顕著な要素が、前記第1の領域内に配置され、前記第2の領域内に配置されないと予測されるかどうかに基づいて、前記第1の領域内のピクセルパラメータを増大させ、その一方で、同時に、前記第2の領域内の画像ピクセルパラメータを維持するかまたは低減させるよう、前記画像ピクセルパラメータを変更すること、をさらに含む、請求項1に記載の非一時的コンピュータ可読媒体。
- 1)前記第1の画像フレームを構成する領域内の前記ピクセルデータを取り込む前記ピクセルを有する1または複数の画像センサに関係する、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限のいずれか内、ならびに2)前記センサ制御ユニットと前記画像センサとの間の通信ループに関係する、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限のいずれか内に収めつつ、前記画像情報品質が最適化される、請求項1に記載の非一時的コンピュータ可読媒体。
- 装置であって、
1または複数の画像プロセッサであって、各画像プロセッサが、少なくとも、ピクセルを有するその独自の画像センサを包含する、1または複数の画像プロセッサと、
前記1または複数の画像プロセッサのための第1の画像フレーム内の複数の領域を作成するように構成されたセンサ制御ユニットであって、前記第1の画像フレームを取り込む各領域が、ピクセルデータを有するピクセルのその独自のセットを包含し、前記画像プロセッサが、前記複数の領域のうちの第1の領域内のピクセルのための前記ピクセルパラメータをその第1の画像フレーム内の第2の領域内のピクセルとはピクセルパラメータが異なるよう設定するように構成されている、センサ制御ユニットと、
1または複数の以前の画像フレーム内の動向を追跡し、前記第1の画像フレーム内で何が文脈的に起きているのかの理解を手助けするように構成された予測および適応シーンモデリングモジュールであって、前記もう1つの画像プロセッサが、i)少なくとも、以前の画像フレーム内で何が文脈的に起きていたのかの文脈理解、シーンの文脈理解、および予想されるシーンの文脈理解のうちのいずれか、ならびにii)顕著な要素が前記第1の領域または第2の領域内に配置されているかどうかに基づいて、各領域のための前記動作モードを変更し、それゆえ、その領域内のピクセルのためのピクセルパラメータを変更するように構成されており、前記第1の領域内のピクセルのためのピクセルパラメータが、その同じ第1の画像フレームのための前記第2の領域から収集されるピクセルデータのための前記ピクセルパラメータとは異なって動作するように構成され、i)第1の以前の画像フレーム内の1または複数の領域内の顕著な要素を特定し、ならびに/あるいはii)現在の画像フレームまたは将来の画像フレーム内の1または複数の領域内の顕著な要素を予測し、そして、顕著な要素の存在または予測される存在が前記第1の領域内にあり前記第2の領域内にないことに基づいて、前記第1の領域内のピクセルの前記セットのためのピクセルパラメータを、前記第2の領域内のピクセルの前記セットとは異なるよう変更するためのガイダンスを前記センサ制御ユニットへ送信するための双方向通信ループが前記予測および適応シーンモデリングモジュールと前記センサ制御ユニットとの間に存在する、予測および適応シーンモデリングモジュールと、
を備える装置。 - 前記第1の画像フレームのために、領域ごとに、ピクセルの前記セットから収集される前記ピクセルデータに識別子を供給し挿入するための画像フレームマッパであって、前記第1の領域内のピクセルの前記セットが、同じ画像フレームを取り込む前記第2の領域内のピクセルの前記セットとは異なるピクセルパラメータの下で動作しているため、前記第1の領域から得られる前記画像ピクセルデータが、前記第1の画像フレームのための前記第2の領域から得られる前記画像ピクセルデータとは異なる収集サイクルにおいて収集される、画像フレームマッパをさらに備える、請求項7に記載の装置。
- 前記第1の画像フレームを構成する前記領域の全てからの前記画像ピクセルデータの全てを収集するように構成された合成器モジュールであって、そして、前記合成器モジュールが、前記第1の画像フレームと相互関係がある前記識別子に基づいて、前記第1の画像フレームのため、異なるサイクル上で収集された少なくとも前記第1の領域および前記第2の領域からの画像ピクセルデータを再構成させるように構成されている、合成器モジュールをさらに備える、請求項8に記載の装置。
- 合成器モジュールが、どの領域の出力が前記第1の画像フレームのための背景ベースとして用いられることになり、どの他の領域のピクセル出力データが当領域内に顕著な要素を有する領域群を取り込む際にトリミングされ前記第1の画像フレームのための前記背景ベース内にペーストされることになるのかを決定するための適応設定を用いるように構成されていること、をさらに含む、請求項7に記載の装置。
- i)複数のセンサ入力からの複数の領域を受け入れ、フレームバッファを用い、ii)各領域の出力のためのピクセルデータを空間的に整列させ、iii)各領域の出力のためのピクセルデータを一時的に整列させ、そして、iv)1または複数の選択された領域の出力ピクセルデータからの前記ピクセルデータをトリミングし、前記第1の画像フレームのための背景ビデオベース上にペーストするように構成された、合成器モジュールをさらに備える、請求項7に記載の装置。
- 前記1または複数の画像プロセッサが、複数の独立したイメージャセンサを有する第1の画像プロセッサを含む、請求項7に記載の装置。
- 前記1または複数の画像プロセッサが、ピクセルを有する独自の画像センサを有する第1の画像プロセッサおよびピクセルを有する独自の画像センサを有する第2の画像プロセッサを含み、これら2つの画像プロセッサが、分散作業アーキテクチャ内で互いに協働し、i)画像プロセッサごとの異なる領域、ii)前記第1の画像フレームのためのベースビデオを取り込む1つの画像プロセッサとの重なり領域、およびiii)両方の組み合わせからなる群から選択される領域を取り込むように構成されている、請求項7に記載の装置。
- 装置であって、
ピクセルアレイ内のピクセルによって第1の画像フレーム内に取り込まれる画像全体にわたって、i)イメージャ解像度、ii)ダイナミックレンジ性能、および/またはiii)フレームレートのピクセルパラメータを同時に独立して制御し、領域増分で不均一に調整するためのセンサ制御ユニットと、
前記画像処理ユニットから前記センサ制御ユニットへの通信ループを有する画像処理ユニットであって、前記画像処理ユニットが、前記第1の画像フレーム内の前記異なる関心領域内のi)前記イメージャ解像度、ii)前記ダイナミックレンジ、および/またはiii)前記フレームレートを同時に独立して変更するために、ピクセルパラメータフィードバックを供給する、画像処理ユニットと、
前記センサ制御ユニットに結合された予測および適応シーンモデリングモジュールであって、前記第1の画像フレーム内の1または複数の関心領域内の顕著な要素を予測し、そして、i)顕著な要素を有するそれらの領域内の1)前記イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートのうちの少なくとも1つを増大させ、そして、1)1または複数の画像センサ、または2)前記センサ制御ユニットと前記画像処理ユニットとの間の前記通信ループによって課される、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限のいずれか内に収まるよう、顕著な要素を有しない領域内の1)前記イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートのうちの少なくとも1つをi)維持するか、またはii)減少させるためのガイダンスを前記センサ制御ユニットへ送信する、予測および適応シーンモデリングモジュールと、
を備える装置。 - 前記予測および適応シーンモデリングモジュールならびに画像シーン理解および分析モジュールが、互いに協働するように構成されており、
前記予測および適応シーンモデリングモジュールが、前記1または複数の以前の画像フレーム内におけるシーンデータの変化の動向を分析し、追跡するように構成されており、1または複数のシーンモデルが、来たるべき画像フレームのために必要とされるピクセルパラメータ変更を予測するために、異なる関心シーン領域内の1または複数の顕著な要素を監視し追跡するための予測方策として維持され、
前記画像シーン理解および分析モジュールが、前記以前の画像フレーム内の前記シーン内で発生した物体およびイベントを特定し、前記シーンの領域内の顕著な要素を特定するために前記シーンを分析するように構成されており、前記顕著な要素が特定されると、その情報が前記予測および適応シーンモデリングモジュールに伝えられ、前記装置が前記予測および適応シーンモデリングモジュールが予測する前記シーン内における急速な変化に備えることを確実にする、
請求項14に記載の装置。 - 前記予測および適応シーンモデリングモジュールならびに画像シーン理解および分析モジュールが協働し、i)リアルタイム画像シーン動態を分析し、シーン活動を分析し、前記シーンの意味論的推論を発展させ、その一方で、ii)同時に、シーン情報を最大化するよう前記センサ制御ユニットのためのピクセルパラメータを決定し、前記ピクセルパラメータを前記センサ制御ユニットへ送信し、取り込まれる前記第1の画像フレームのための前記異なる関心領域内のピクセルのための前記ピクセルパラメータを動的に調整するように構成されており、前記センサ制御ユニットが、i)1または複数の以前の画像フレーム内で何が文脈的に起きていたのかの文脈理解、およびii)顕著な要素が前記第1の領域または第2の領域内に配置されているかどうかに基づいて、不均一に、および独立して、i)顕著な要素を有する第1の領域内の1)前記イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートのうちの少なくとも1つを増大させ、顕著な要素を有する第2の領域内の1)前記イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートの少なくとも異なるピクセルパラメータを増大させるように構成されている、請求項14に記載の装置。
- 前記予測および適応シーンモデリングモジュールが、i)前記以前の画像フレーム内にあることを見出されたかまたは予測された前記顕著な要素および非顕著性要素の各々を分析し、ii)画像およびシーンデータモデルと比較するように構成されており、これにより、前記予測および適応シーンモデリングモジュールが、その種類の顕著な要素のために最も適したピクセルパラメータを特定および予測し得る、請求項14に記載の装置。
- 前記予測および適応シーンモデリングモジュールが、
予測的シーン理解を支援するための数多くの画像データモデルを維持することを通じて、来たるべき画像形成パラメータ変更を予測し、そして、顕著な要素およびいかなる種類の顕著な要素が前記第1の画像フレーム内の1または複数の関心領域内にあるかを特定および/または予測するとともに、ii)顕著な要素を全く有しない1または複数の領域を特定し、
そして、顕著な要素を有するそれら領域内の前記種類の顕著な要素に最も適した前記1)イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートのうちの少なくとも1つをi)増大させるためのガイダンスを前記センサ制御ユニットへ送信し、
そして、1)前記画像センサ、または2)前記センサ制御ユニットと前記画像処理ユニットとの間の前記通信ループによって課される、前記i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限内に収まるよう、顕著な要素を有しないそれらの領域内の1)イメージャ解像度、2)前記ダイナミックレンジ、および/または3)前記フレームレートのうちの少なくとも1つを維持するか、または減少させるための方策を含むように構成されている、請求項14に記載の装置。 - 前記第1の画像フレームを指示し各関心領域のための前記ピクセルから収集されるデータに含まれる識別子を用いて、前記第1の画像フレーム内の前記複数の関心領域内で取り込まれた要素をつなぎ合わせるように構成された、合成器モジュールをさらに備える、請求項14に記載の装置。
- 前記予測および適応シーンモデリングモジュールならびに画像シーン理解および分析モジュールが、互いに協働するように構成されており、前記モジュールが協働し、1または複数の顕著な要素を包含するがゆえに、前記第1の画像フレーム内のより高いイメージャ解像度、ダイナミックレンジ、および/またはフレームレートを用いて最適に取り込まれる必要がある第1の画像フレーム内の前記関心領域について分析し、その一方で、同時に、顕著でない要素のみを包含する他のあまり重要でない関心領域が存在し、そこでは、前記1)1または複数の画像センサによって課される、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限、ならびに2)前記センサ制御ユニットと前記画像処理ユニットとの間の通信ループによって課される、i)帯域幅制限、ii)メモリストレージ、および/またはiii)電力消費制限のいずれか内に収まるよう、前記第1の画像フレーム内のイメージャ解像度、ダイナミックレンジ、および/またはフレームレートのためのデフォルトのピクセルパラメータ設定を用いて、低減された画像詳細が取り込まれ得る、請求項14に記載の装置。
- 前記ピクセルパラメータが、前記第1のフレーム内の物体の位置情報に基づいて、前記第1のフレーム内の第1の領域内において、前記第1のフレーム内の第2の領域内の他のピクセルパラメータに対して増大または減少させられるよう最適化される、請求項14に記載の装置。
- 前記予測および適応シーンモデリングモジュールが、1または複数の機械学習モジュール、ならびにシーン区分化および分類モジュールおよび関心領域推移活動分類モジュールを有するシーン理解モジュールを含み、前記1または複数の機械学習モデルが、シーンモデル、物体モデル、およびイベントモデルを含む、請求項14に記載の装置。
?
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862652891P | 2018-04-04 | 2018-04-04 | |
US62/652,891 | 2018-04-04 | ||
PCT/US2018/053749 WO2019194863A1 (en) | 2018-04-04 | 2018-10-01 | Methods for enhanced imaging based on semantic processing and dynamic scene modeling |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021517682A true JP2021517682A (ja) | 2021-07-26 |
JP7377806B2 JP7377806B2 (ja) | 2023-11-10 |
Family
ID=68101209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544504A Active JP7377806B2 (ja) | 2018-04-04 | 2018-10-01 | 意味処理および動的シーンモデリングに基づく向上された画像形成のための方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11394879B2 (ja) |
JP (1) | JP7377806B2 (ja) |
DE (1) | DE112018007431T5 (ja) |
WO (1) | WO2019194863A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460191B1 (en) * | 2018-08-20 | 2019-10-29 | Capital One Services, Llc | Dynamically optimizing photo capture for multiple subjects |
US20230206449A1 (en) * | 2020-05-27 | 2023-06-29 | Telefonaktiebolaget Lm Ericsson (Publ) | Computer Software Module Arrangement, a Circuitry Arrangement, an Arrangement and a Method for Improved Image Processing |
KR102574744B1 (ko) * | 2020-12-04 | 2023-09-06 | 한국전자기술연구원 | 온디바이스 ai 수행을 위한 대용량 스트림 데이터 처리 방법 |
US11943184B2 (en) * | 2021-01-21 | 2024-03-26 | Samsung Electronics Co., Ltd. | Device and method for providing notification message related to content |
US11582422B2 (en) * | 2021-02-24 | 2023-02-14 | Gn Audio A/S | Conference device with multi-videostream capability |
CN112926549B (zh) * | 2021-04-15 | 2022-06-24 | 华中科技大学 | 基于时间域-空间域特征联合增强的步态识别方法与系统 |
CN113256655B (zh) * | 2021-05-27 | 2024-09-13 | 瑞芯微电子股份有限公司 | 一种基于画面特征的视频分割方法及存储介质 |
US11902532B2 (en) * | 2021-09-29 | 2024-02-13 | Ati Technologies Ulc | Video encoding optimization for machine learning content categorization |
CN113920304A (zh) * | 2021-09-29 | 2022-01-11 | 北京百度网讯科技有限公司 | 样本图像处理方法、装置、电子设备及介质 |
CN113891072B (zh) * | 2021-12-08 | 2022-02-11 | 北京拙河科技有限公司 | 基于亿级像素数据的视频监测与异常分析系统与方法 |
CN118365573B (zh) * | 2024-06-14 | 2024-08-20 | 泉州医学高等专科学校 | 一种图像增强方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07288806A (ja) * | 1994-04-20 | 1995-10-31 | Hitachi Ltd | 動画像通信システム |
JP2005229363A (ja) * | 2004-02-13 | 2005-08-25 | Matsushita Electric Ind Co Ltd | 無線画像通信装置 |
JP2009515705A (ja) * | 2005-11-14 | 2009-04-16 | プレシテック ヴィジョン ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフト | ワークピースの継ぎ目箇所を評価するための方法および装置 |
JP2012147431A (ja) * | 2005-03-01 | 2012-08-02 | Qualcomm Inc | テレビ電話のための品質メトリックバイアス関心領域コーディング |
JP2015195458A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社ニコン | 電子機器 |
WO2018047730A1 (ja) * | 2016-09-08 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理システム、画像処理方法およびコンピュータプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101525801B1 (ko) | 2008-11-14 | 2015-06-08 | 삼성디스플레이 주식회사 | 어레이 기판 및 그 제조 방법 |
US8587681B2 (en) * | 2008-11-21 | 2013-11-19 | Omnivision Technologies, Inc. | Extended depth of field for image sensor |
US8769584B2 (en) | 2009-05-29 | 2014-07-01 | TVI Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
US9924109B2 (en) * | 2014-11-18 | 2018-03-20 | The Invention Science Fund Ii, Llc | Devices, methods, and systems for visual imaging arrays |
-
2018
- 2018-10-01 JP JP2020544504A patent/JP7377806B2/ja active Active
- 2018-10-01 US US17/044,245 patent/US11394879B2/en active Active
- 2018-10-01 WO PCT/US2018/053749 patent/WO2019194863A1/en active Application Filing
- 2018-10-01 DE DE112018007431.5T patent/DE112018007431T5/de active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07288806A (ja) * | 1994-04-20 | 1995-10-31 | Hitachi Ltd | 動画像通信システム |
JP2005229363A (ja) * | 2004-02-13 | 2005-08-25 | Matsushita Electric Ind Co Ltd | 無線画像通信装置 |
JP2012147431A (ja) * | 2005-03-01 | 2012-08-02 | Qualcomm Inc | テレビ電話のための品質メトリックバイアス関心領域コーディング |
JP2009515705A (ja) * | 2005-11-14 | 2009-04-16 | プレシテック ヴィジョン ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフト | ワークピースの継ぎ目箇所を評価するための方法および装置 |
JP2015195458A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社ニコン | 電子機器 |
WO2018047730A1 (ja) * | 2016-09-08 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理システム、画像処理方法およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11394879B2 (en) | 2022-07-19 |
JP7377806B2 (ja) | 2023-11-10 |
US20210160422A1 (en) | 2021-05-27 |
WO2019194863A1 (en) | 2019-10-10 |
DE112018007431T5 (de) | 2020-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7377806B2 (ja) | 意味処理および動的シーンモデリングに基づく向上された画像形成のための方法 | |
US11699213B2 (en) | Image-capturing device and method for controlling same | |
US20200236425A1 (en) | Method and apparatus for filtering video | |
US11210768B2 (en) | Digital image auto exposure adjustment | |
US11231838B2 (en) | Image display with selective depiction of motion | |
KR20210073568A (ko) | 이미지 처리 방법 및 장치, 및 디바이스 | |
CN105027167A (zh) | 用于自动渲染滑动变焦效果的方法和设备 | |
CN111768438B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN112215171A (zh) | 目标检测方法、装置、设备及计算机可读存储介质 | |
EP3710993B1 (en) | Image segmentation using neural networks | |
WO2021006650A1 (en) | Method and system for implementing a variable accuracy neural network | |
US11145088B2 (en) | Electronic apparatus and method for controlling thereof | |
CN115002554B (zh) | 直播画面调整方法、系统、装置、计算机设备及介质 | |
US20230419505A1 (en) | Automatic exposure metering for regions of interest that tracks moving subjects using artificial intelligence | |
CN115242983A (zh) | 拍摄方法、电子设备、计算机程序产品及可读存储介质 | |
WO2022143314A1 (zh) | 一种对象注册方法及装置 | |
WO2024055764A1 (zh) | 图像处理方法及装置 | |
US20230115371A1 (en) | Efficient vision perception | |
KR20210059457A (ko) | 이동 단말기 | |
US20240107092A1 (en) | Video playing method and apparatus | |
CN117111728B (zh) | 人机交互方法、相关设备及系统 | |
US20240348916A1 (en) | Method and system for capturing a video in a user equipment | |
US20220358776A1 (en) | Electronic device and operating method thereof | |
WO2023184359A1 (en) | System and method for image processing using mixed inference precision | |
WO2023129162A1 (en) | Real-time lightweight video tracking, processing, and rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200821 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200925 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20200925 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230222 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230518 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7377806 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20240308 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |