JP2022054254A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2022054254A
JP2022054254A JP2020161332A JP2020161332A JP2022054254A JP 2022054254 A JP2022054254 A JP 2022054254A JP 2020161332 A JP2020161332 A JP 2020161332A JP 2020161332 A JP2020161332 A JP 2020161332A JP 2022054254 A JP2022054254 A JP 2022054254A
Authority
JP
Japan
Prior art keywords
target data
data
image
image processing
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020161332A
Other languages
English (en)
Inventor
敬行 神野
Takayuki Jinno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020161332A priority Critical patent/JP2022054254A/ja
Priority to US17/481,028 priority patent/US11842505B2/en
Priority to CN202111112873.8A priority patent/CN114257735A/zh
Publication of JP2022054254A publication Critical patent/JP2022054254A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2022054254000001
【課題】 観察条件を変えるためにユーザが情報を入力することなく、複数の観察条件における物体の質感を提示するための処理を提供することを目的とする。
【解決手段】 画像処理装置であって、対象データを取得する取得手段と、前記対象データが物体の質感情報を有するか否かを判定する判定手段と、前記判定手段による判定結果に基づいて、前記対象データに対応する画像を表示手段に表示する表示制御手段と、を有し、前記表示制御手段は、前記対象データが物体の質感情報を有する場合、前記対象データに対応する、観察条件が異なる複数の画像を含む動画像又は連続静止画像を前記表示手段に表示する。
【選択図】 図3

Description

本発明は、物体の質感を表現するための画像処理技術に関する。
インターネットショッピングの普及により、商品の色や形だけでなく質感についても、PCやタブレット端末、スマートフォンの画面上に表現することへの要求が高まっている。物体の素材や塗装などの質感を表現するために、3DCGの様々な手法が用いられている。特許文献1は、光源、物体、視点の位置に応じて、物体の質感を表現する2次元画像を生成する技術を開示している。
特開2005-122719号公報
しかしながら、特許文献1においては、複数の観察条件において物体の質感を確認したい場合、観察条件を変える度にユーザが光源情報や視点情報などを入力する必要がある。
本発明は、観察条件を変えるためにユーザが情報を入力することなく、複数の観察条件における物体の質感を提示するための処理を提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、対象データを取得する取得手段と、前記対象データが物体の質感情報を有するか否かを判定する判定手段と、前記判定手段による判定結果に基づいて、前記対象データに対応する画像を表示手段に表示する表示制御手段と、を有し、前記表示制御手段は、前記対象データが物体の質感情報を有する場合、前記対象データに対応する、観察条件が異なる複数の画像を含む動画像又は連続静止画像を前記表示手段に表示することを特徴とする。
本発明によれば、観察条件を変えるためにユーザが情報を入力することなく、複数の観察条件における物体の質感を提示することができる。
画像処理装置のハードウェア構成を示すブロック図 画像処理装置の機能構成を示すブロック図 画像処理装置が実行する処理を示すフローチャート ユーザインタフェースの例を示す図 画像処理装置の機能構成を示すブロック図 ユーザインタフェースの例を示す図 画像処理装置が実行する処理を示すフローチャート
以下、本発明の実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[第1実施形態]
<画像処理装置のハードウェア構成>
図1は、画像処理装置1のハードウェア構成を示すブロック図である。画像処理装置1は、CPU101、ROM102、RAM103を備える。また、画像処理装置1は、VC(ビデオカード)104、汎用I/F(インタフェース)105、SATA(シリアルATA)I/F106、NIC(ネットワークインタフェースカード)107を備える。CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)112などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD112などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。VC104には、ディスプレイ114が接続される。汎用I/F105には、シリアルバス109を介して、マウスやキーボードなどの入力デバイス110が接続される。SATA I/F106には、シリアルバス111を介して、HDD112や各種記録メディアの読み書きを行う汎用ドライブ113が接続される。NIC107は、外部装置との間で情報の入力及び出力を行う。CPU101は、HDD112や汎用ドライブ113にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU101は、プログラムによって提供されるGUI(グラフィカルユーザインタフェース)をディスプレイ114に表示し、入力デバイス110を介して受け付けるユーザ指示などの入力を受信する。
<画像処理装置の機能構成>
図2は、画像処理装置1の機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102またはHDD112に格納されたプログラムを読み出して実行することによって、図2に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように画像処理装置1が構成されていても良い。
画像処理装置1は、取得部201と、判定部202と、生成部203と、表示制御部204と、を有する。取得部201は、対象データとして、物体の質感情報を有するデータ、もしくは、2次元の静止画像データを取得する。本実施形態における質感情報を有するデータは、3Dモデル形式のデータであり、wavefront OBJ形式で記述されている。wavefront OBJ形式のデータを用いてレンダリングを行う際には、3Dテクスチャ形式であるMTL形式ファイルが参照される。また、2次元の静止画像データは、JPG形式などの画像データである。
判定部202は、取得部201が取得した対象データが、物体の質感情報を有するデータであるか否かを判定する。生成部203は、判定部202により物体の質感情報を有すると判定された対象データに対して、観察条件が異なる複数のフレームを含むMP4形式などの動画像データを生成する。表示制御部204は、判定部202が質感情報を有するデータであると判定した対象データに対して、生成部203が生成した、観察条件が異なる複数のフレームを含む動画像データを表示(自動的に再生)する。表示制御部204は、判定部202が質感情報を有するデータでないと判定した対象データに対して、対象データを2次元の静止画として表示する。
<画像処理装置が実行する処理の流れ>
以下、図3を参照して画像処理装置1が実行する処理の詳細を説明する。図3のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。S301において、取得部201は、対象データを取得する。本実施形態における取得部201は、ユーザの指示入力に応じて、HDD112などの記憶装置から4種類の対象データを取得する。
S302において、取得部201は、対象データに対して、1bitの信号である質感フラグ(flg)をOFF(flg=0)に設定する。質感フラグは、取得部201により取得された各対象データに付与される。S303において、判定部202は、S301において取得された対象データが質感情報を有するデータであるか否かを判定する。S304において、判定部202は、対象データが質感情報を有するデータであると判定した場合に、判定された対象データに対応する質感フラグをON(flg=1)に設定(更新)する。
S305において、生成部203は、質感フラグがONの対象データに対して、観察条件が異なる複数のフレームを含む動画像データを生成する。動画像データの生成には、公知のバンプマッピングやレイトレーシング、フォトンマッピングなどの手法を用いることができる。尚、S303において対象データが質感情報を有するデータでないと判定された場合は、S304及びS305の処理をスキップする。
S306において、表示制御部204は、対象データに対応する質感フラグに基づいて、動画像データが表す動画像の表示、もしくは、静止画像データが表す静止画像の表示を行う。表示制御部204は、対象データの質感フラグがON(flg=1)である場合、S305において生成された動画像データが表す動画像をディスプレイ114に表示する。表示制御部204は、対象データの質感フラグがOFF(flg=0)である場合、S301において取得された静止画像データが表す2次元の静止画像をそのままディスプレイ114に表示する。S307において、表示制御部204は、取得された全ての対象データに対して表示が完了したか否かを判定する。取得された全ての対象データに対して表示が完了していない場合には、次の対象データに対してS302以降の処理を行う。取得された全ての対象データに対して表示が完了した場合には、処理を終了する。
<表示制御部による表示>
図4を用いて表示制御部204における処理の詳細を説明する。図4はディスプレイ114上に表示されるUIの例を示す図である。ウィンドウ401は、画像を表示するための表示領域である。表示画像402、表示画像403、表示画像404、表示画像405は、S301において取得された4種類の対象データそれぞれに対して表示された画像である。図4の例においては、色や質感の異なる4種類の物体が表示されており、物体表面におけるハイライト領域は、物体表面に照明が映り込んでいることを示している。図4(a)はある時刻Aにおける表示結果を示し、図4(b)は時刻Aとは異なる時刻Bにおける表示結果を示している。表示画像402及び表示画像405は、S303において質感情報を有すると判定された対象データに対応する表示結果であり、観察条件が異なる複数のフレームを含む動画像である。表示画像403及び表示画像404は、S303において質感情報を有しないと判定された対象データに対応する表示結果であり、2次元の静止画像である。表示画像402及び表示画像405について、図4(a)と図4(b)とを比較すると、表示時刻に応じて物体表面のハイライト領域の位置が変化している。これは、観察条件(照明の方向)を変えてレンダリングした結果を表示時間に応じて表示しているためである。
尚、表示制御部204は、表示される動画像同士について、再生開始フレームとフレームレートとを同期させ、同一の観察条件で表示する。これにより、異なる物体間で、複数の観察条件における色や質感を比較することができる。ボタン406は、動画と静止画とを切り替えるためのボタンである。表示制御部204は、ボタン406の押下を受け付けると、表示される動画像の再生と停止とを切り替える。
<第1実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、対象データを取得し、対象データが物体の質感情報を有するか否かを判定する。判定結果に基づいて、対象データに対応する画像を表示する。対象データが物体の質感情報を有する場合、対象データに対応する、観察条件が異なる複数の画像を含む動画像を表示する。これにより、観察条件を変えるためにユーザが情報を入力することなく、複数の観察条件における物体の質感を提示することができる。
<変形例>
本実施形態においては、観察条件として照明の方向を変化させたが、照明と物体との距離や物体の向き、観察方向、観察距離など、CGレンダリングにおいて変更可能なパラメータであれば、これらのいずれの条件を変更しても良い。また、複数の条件を複合的に変更しても良い。
[第2実施形態]
第1実施形態においては、質感情報を有するデータに対して、観察条件が異なる複数のフレームを含む動画像を生成し、自動的に再生した。本実施形態においては、質感情報を有するデータに対して、観察条件を設定し、設定した観察条件に基づいて動画を再生する。尚、本実施形態における画像処理装置のハードウェア構成は第1実施形態のものと同等であるため、説明を省略する。以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、第1実施形態と同一の構成については、同一の符号を付して説明する。
<画像処理装置の機能構成>
図5は、画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、取得部201と、観察条件設定部501と、判定部202と、生成部203と、表示制御部204と、を有する。観察条件設定部501は、観察条件の変え方を設定する。図6を用いて観察条件設定部501の処理の詳細を説明する。図6は観察条件を設定するために表示されるUIの例を示す図である。ウィンドウ601は、観察条件を設定するための設定領域である。領域602は照明方向を設定するための領域であり、領域603は物体の向きを設定するための領域である。領域604は観察方向を設定するための領域であり、領域605は観察距離を設定するための領域である。
領域602において照明方向の変え方を設定する場合、ユーザは領域602における開始ボタンを押下し、マウスや指などを用いたドラッグ操作により光源606を任意方向に連続的に移動させた後に、領域602における停止ボタンを押下する。領域603において物体の向きの変え方を設定する場合、ユーザは領域603における開始ボタンを押下し、マウスや指などを用いたドラッグ操作により物体の座標軸607を任意方向に連続的に回転させた後に、領域603における停止ボタンを押下する。領域604において観察方向の変え方を設定する場合、ユーザは領域604における開始ボタンを押下し、マウスや指などを用いたドラッグ操作により観察位置を示すカメラ608を任意方向に連続的に移動させた後に、領域604における停止ボタンを押下する。領域605において観察距離の変え方を設定する場合、ユーザは領域605における開始ボタンを押下し、マウスや指などを用いたドラッグ操作により観察距離を示すスライダー609の位置を任意に変更した後に、領域605における停止ボタンを押下する。
観察条件設定部501は、開始ボタン及び停止ボタンの押下に応じて、その間にユーザにより指示された観察条件の変化を時間軸に沿って保存する。ウィンドウ601における設定完了ボタンが押下されると、観察条件設定部501は、観察条件の設定を完了する。尚、設定される観察条件は1つであっても複数であっても良い。また、変更を加えなかった項目は初期値がそのまま適用される。
<画像処理装置が実行する処理の流れ>
以下、図7を参照して画像処理装置1が実行する処理の詳細を説明する。図7のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。尚、S301~S304、S306、S307の処理は第1実施形態と同等の処理であるため説明を省略する。
S701において、観察条件設定部501は、対象データに対して、観察条件の変え方を設定する。本実施形態における観察条件設定部501は、複数の対象データに対して同一の観察条件の変え方を設定する。S702において、生成部203は、設定された観察条件の変え方に基づいて、観察条件が異なる複数のフレームを含む動画像データを生成する。
<第2実施形態の効果>
以上説明したように、本実施形態における画像処理装置は、動画を再生する際の観察条件の変え方を設定し、設定した観察条件の変え方に基づいて動画像データを生成する。これにより、異なる物体間で、ユーザの望んだ順に、複数の観察条件における色や質感を比較することができる。
<変形例>
本実施形態においては、複数の対象データに対して同一の観察条件の変え方を設定したが、各対象データに対して別々に観察条件の変え方を設定しても良い。また、1つの対象データに対して、複数の観察条件の変え方を設定しても良い。これにより、1つの物体に対して複数の観察条件における色や質感を同時に確認し、比較することができる。
また、本実施形態においては、対象データを取得した後に観察条件を設定したが、処理の順番は上記の一例に限られない。例えば、観察条件の設定を先に行ってから、対象データを取得しても良い。また、対象データの取得と観察条件の設定とを並行して行っても良い。また、質感フラグの更新後に、観察条件の設定を行っても良い。
[その他の実施形態]
上述した実施形態においては、質感情報を有する対象データに対して動画像データを生成し表示したが、動画像データではなく、GIFアニメーションなどの連続静止画像データを生成し表示しても良い。この場合、連続静止画像データに含まれる複数の静止画像は、それぞれが異なる観察条件に対応している。
また、上述した実施形態における質感情報を有するデータは、wavefront OBJ形式で記述されていたが、Autodesk FBX形式など、他の形式のデータであっても良い。
また、上述した実施形態においては、生成部203が判定部202による判定結果に基づいて動画像データを生成したが、予めCGレンダリングされた連続静止画像や、観察条件を異ならせながら物体を撮像して得られた動画や連続静止画像を用いても良い。この場合、S301において、取得部201は、予めCGレンダリング又は撮像により得られた対象データに併せて質感フラグONの情報を取得する。静止画像には、併せて質感フラグOFFの情報を取得する。これにより、判定部202及び生成部203における処理を行わずに、表示制御部204による表示を行うことができる。
また、上述した実施形態は、HTMLファイルに自動記述するプログラムとして提供することが可能である。質感情報を有するデータについてはX3D形式のファイルを生成することによりHTMLファイルから参照することができる。HTMLファイルを生成することにより、インターネットに公開してブラウザ上で表示することが可能となる。
本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 画像処理装置
201 取得部
202 判定部
204 表示制御部

Claims (10)

  1. 対象データを取得する取得手段と、
    前記対象データが物体の質感情報を有するか否かを判定する判定手段と、
    前記判定手段による判定結果に基づいて、前記対象データに対応する画像を表示手段に表示する表示制御手段と、を有し、
    前記表示制御手段は、前記対象データが物体の質感情報を有する場合、前記対象データに対応する、観察条件が異なる複数の画像を含む動画像又は連続静止画像を前記表示手段に表示することを特徴とする画像処理装置。
  2. 前記観察条件は、照明の方向、物体の向き、観察方向、観察距離、物体と照明との距離のうち少なくとも1つであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記対象データが物体の質感情報を有しない場合、前記対象データに対応する静止画像を前記表示手段に表示することを特徴とする請求項1又は請求項2に記載の画像処理装置。
  4. 前記判定手段による判定結果に基づいて、動画像データ又は静止画像データを生成する生成手段をさらに有し、
    前記表示制御手段は、前記生成手段により生成された動画像データ又は静止画像データが表す画像を前記表示手段に表示することを特徴とする請求項1乃至請求項3のいずれか一項に記載の画像処理装置。
  5. 前記対象データに対応する動画像を表示する際の観察条件の変え方を設定する設定手段をさらに有し、
    前記表示制御手段は、前記設定された観察条件の変え方に基づいて、前記対象データに対応する動画像を前記表示手段に表示することを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。
  6. 前記設定手段は、ユーザの指示に基づいて、時間軸に沿った観察条件の変え方を設定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記表示制御手段は、前記対象データに対応する複数の動画像を前記表示手段に表示する場合、前記複数の動画像の間で再生開始フレームとフレームレートとを同期させることを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像処理装置。
  8. 物体の質感情報を有する第1データと、物体の質感情報を有しない第2データと、を取得する取得手段と、
    前記第1データに対応する、観察条件が異なる複数のフレームを含む動画像と、前記第2データに対応する静止画像と、を表示手段に表示する表示制御手段と、
    を有することを特徴とする画像処理装置。
  9. コンピュータを請求項1乃至請求項8いずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
  10. 対象データを取得する取得ステップと、
    前記対象データが物体の質感情報を有するか否かを判定する判定ステップと、
    前記判定ステップにおける判定結果に基づいて、前記対象データに対応する画像を表示手段に表示する表示制御ステップと、を有し、
    前記表示制御ステップにおいて、前記対象データが物体の質感情報を有する場合、前記対象データに対応する、観察条件が異なる複数の画像を含む動画像又は連続静止画像を前記表示手段に表示することを特徴とする画像処理方法。
JP2020161332A 2020-09-25 2020-09-25 画像処理装置、画像処理方法及びプログラム Pending JP2022054254A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020161332A JP2022054254A (ja) 2020-09-25 2020-09-25 画像処理装置、画像処理方法及びプログラム
US17/481,028 US11842505B2 (en) 2020-09-25 2021-09-21 Apparatus, method, and storage medium
CN202111112873.8A CN114257735A (zh) 2020-09-25 2021-09-23 图像处理装置、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020161332A JP2022054254A (ja) 2020-09-25 2020-09-25 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022054254A true JP2022054254A (ja) 2022-04-06

Family

ID=80790171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020161332A Pending JP2022054254A (ja) 2020-09-25 2020-09-25 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11842505B2 (ja)
JP (1) JP2022054254A (ja)
CN (1) CN114257735A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022054254A (ja) * 2020-09-25 2022-04-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122719A (ja) 2003-09-24 2005-05-12 Fuji Photo Film Co Ltd コンピュータグラフィックスシステム、コンピュータグラフィックス再現方法およびプログラム
US20050168465A1 (en) * 2003-09-24 2005-08-04 Setsuji Tatsumi Computer graphics system, computer graphics reproducing method, and computer graphics program
US8433124B2 (en) * 2010-01-07 2013-04-30 De La Rue North America Inc. Systems and methods for detecting an optically variable material
US8890073B2 (en) * 2011-03-28 2014-11-18 Northrop Grumman Guidance And Electronics Company, Inc. Systems and methods for detecting and/or identifying materials based on electromagnetic radiation
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US10127722B2 (en) * 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
JP2016071733A (ja) * 2014-09-30 2016-05-09 キヤノン株式会社 画像処理装置および画像処理方法
US9400916B1 (en) * 2015-10-02 2016-07-26 Silk Id Systems, Inc. System and method for detecting an organic body for authentication
CN111212724B (zh) * 2017-10-14 2022-06-17 惠普发展公司,有限责任合伙企业 处理3d对象模型
WO2019089825A1 (en) * 2017-11-02 2019-05-09 AMP Robotics Corporation Systems and methods for optical material characterization of waste materials using machine learning
CN108001494A (zh) * 2018-01-05 2018-05-08 同方威视技术股份有限公司 行李车
US20200027106A1 (en) * 2018-07-23 2020-01-23 Rok Mobile International Ltd. Sweepstakes campaign system and uses thereof
US11067448B2 (en) * 2018-10-05 2021-07-20 Parsons Corporation Spectral object detection
US11403811B1 (en) * 2019-02-28 2022-08-02 Apple Inc. Estimating optical parameters of surfaces
US11257272B2 (en) * 2019-04-25 2022-02-22 Lucid VR, Inc. Generating synthetic image data for machine learning
WO2021066882A1 (en) * 2019-10-03 2021-04-08 Google Llc Neural light transport
CN112785682A (zh) * 2019-11-08 2021-05-11 华为技术有限公司 模型的生成方法、模型的重建方法及装置
DE102020111163A1 (de) * 2020-04-23 2021-10-28 CREATE 3D GmbH Digitaler Stil- und Ausstattungsgenerator
JP2022054254A (ja) * 2020-09-25 2022-04-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN114257735A (zh) 2022-03-29
US11842505B2 (en) 2023-12-12
US20220101545A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US8286102B1 (en) System and method for image processing using multi-touch gestures
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
WO2021135320A1 (zh) 一种视频的生成方法、装置及计算机系统
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN106447756B (zh) 用于生成用户定制的计算机生成动画的方法和系统
CN113660528A (zh) 一种视频合成方法、装置、电子设备和存储介质
CN111787240B (zh) 视频生成方法、装置和计算机可读存储介质
JP7467780B2 (ja) 画像処理方法、装置、デバイス及び媒体
KR20160016812A (ko) 조밀한 모션 필드들을 통한 기저 비디오 시퀀스로의 이미지 편집들 전파
JP2022054254A (ja) 画像処理装置、画像処理方法及びプログラム
JP2017111719A (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
JP6494358B2 (ja) 再生制御装置、再生制御方法
CN111158840B (zh) 图像轮播方法及装置
JP5473096B2 (ja) イメージベースドビジュアルハルにおける凹状表面のモデリング
KR102448551B1 (ko) 노드 기반 그래프에 의해 구성되는 알고리즘을 이용한 영상 처리 방법 및 장치
JP2020527814A (ja) 実物体の相互作用的な3d表現を作成および表示するためのシステムおよび方法
JP6182930B2 (ja) 奥行き制作支援装置、奥行き制作方法、及びプログラム
CN114913277A (zh) 一种物体立体交互展示方法、装置、设备及介质
JP5994320B2 (ja) 奥行き制作支援装置、奥行き制作支援方法、及びプログラム
JP2013085133A (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
JP5817300B2 (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
JP5966837B2 (ja) 奥行き制作支援装置、奥行き制作支援方法、およびプログラム
US20240119668A1 (en) Image processing apparatus, method for controlling the same, and storage medium
JP5460277B2 (ja) モノクロ動画の着色装置及びモノクロ動画の着色方法
JP2005084088A (ja) 画像比較表示方法及びその装置並びに画像比較表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230922

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240612