JP5791577B2 - 画像処理装置、画像表示方法、およびプログラム - Google Patents

画像処理装置、画像表示方法、およびプログラム Download PDF

Info

Publication number
JP5791577B2
JP5791577B2 JP2012216568A JP2012216568A JP5791577B2 JP 5791577 B2 JP5791577 B2 JP 5791577B2 JP 2012216568 A JP2012216568 A JP 2012216568A JP 2012216568 A JP2012216568 A JP 2012216568A JP 5791577 B2 JP5791577 B2 JP 5791577B2
Authority
JP
Japan
Prior art keywords
projection
image
processing apparatus
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012216568A
Other languages
English (en)
Other versions
JP2014072656A (ja
JP2014072656A5 (ja
Inventor
宗 益子
宗 益子
靖之 林
靖之 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2012216568A priority Critical patent/JP5791577B2/ja
Priority to ES13842798T priority patent/ES2738644T3/es
Priority to EP13842798.4A priority patent/EP2894851B1/en
Priority to US14/431,755 priority patent/US10091474B2/en
Priority to PCT/JP2013/061481 priority patent/WO2014050186A1/ja
Publication of JP2014072656A publication Critical patent/JP2014072656A/ja
Publication of JP2014072656A5 publication Critical patent/JP2014072656A5/ja
Application granted granted Critical
Publication of JP5791577B2 publication Critical patent/JP5791577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7408Direct viewing projectors, e.g. an image displayed on a video CRT or LCD display being projected on a screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は画像処理装置、画像表示方法、およびプログラムに関する。
衣服等の購入を検討するときには、自分の身体等に服をあてて、その服と身体とを組み合わせた際の印象やサイズなど(いわゆるコーディネート)を確認することが一般的に行われている。
また、カメラで撮った人体の画像に服や靴などの画像を合成し、その合成された画像をディスプレイに出力させる技術がある(非特許文献1参照)。このような技術を用いると、ユーザはディスプレイ上に表示される合成される画像をみることでコーディネートを確認することができる。
Bridget、"Outdoor media becomes a shoe store"、[online]、2012年6月3日、[平成24年9月16日検索]、インターネット(URL:http://www.adverblog.com/2012/06/03/outdoor-media-becomes-a-shoe-store/)
ユーザが、第1の物体と、他の第2の物体とを目の前で組み合わせて、これらの物体のサイズのバランスを含むコーディネートを確認することが難しい場合がある。より詳細には、第1の物体が目の前にあっても、第2の物体を目の前に持ってきて組み合わせることが難しい場合がある。第1の物体としては、例えば購入を検討する対象である商品がある。上述の場合の1つの例は衣服を贈答する場合であり、この場合にはその贈り先となる人と商品とのコーディネートの確認は難しかった。他の例は子どもの服を探す場合であり、子どもをじっとさせて服を試着させることが難しかった。
本発明は上記課題を鑑みてなされたものであって、その目的は、目の前にある第1の物体と、他の第2の物体とを目の前で組み合わせてみることが困難な場合であっても、それらのコーディネートを確認することができる技術を提供することにある。
上記課題を解決するために、本発明にかかる画像処理装置は、投影面に投影される第1の物体の画像を含む投影用画像を取得する投影用画像取得手段と、投影手段が前記投影面に投影する画像のうち前記投影面の手前にある第2の物体が遮る領域を認識する物体認識手段と、前記投影面に投影される第1の物体の画像の大きさが実物大になり、かつ前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御する投影制御手段と、を含むことを特徴とする。
また、本発明にかかる画像処理方法は、投影面に投影される第1の物体の画像を含む投影用画像を取得するステップと、投影手段が投影する前記投影用画像を前記投影面の手前にある第2の物体が遮る領域を認識するステップと、前記投影面に投影される第1の物体の画像の大きさが実物大になり、かつ前記認識された領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御するステップと、を含むことを特徴とする。
また、本発明にかかるプログラムは、投影面に投影される第1の物体の画像を含む投影用画像を取得する投影用画像取得手段、投影手段が投影する前記投影用画像を前記投影面の手前にある第2の物体が遮る領域を認識する物体認識手段、および、前記投影面に投影される第1の物体の画像の大きさが実物大になり、かつ前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御する投影制御手段、としてコンピュータを機能させる。
本発明によれば、実在する第1の物体および第2の物体を目の前で組み合わせてコーディネートを確認することが困難な場合であっても、それらのコーディネートを確認することができる。
本発明の一態様では、前記物体認識手段は、ピクセルごとの撮影手段からの距離を示す距離画像に基づいて、前記第2の物体が遮る領域を認識してもよい。
本発明の一態様では、前記物体認識手段は、周期的に前記第2の物体が遮る領域を認識し、前記投影制御手段は、前記物体認識手段が前記第2の物体が遮る領域を認識するごとに、前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御してもよい。
これらの態様によれば、ユーザが第2の物体を動かしながら、リアルタイム的に第1の物体と第2の物体とのコーディネートを確認することができる。
本発明の一態様では、前記投影用画像取得手段は人体を含む複数の投影用画像から1つの投影用画像を取得し、前記投影制御手段は、前記取得された投影用画像に含まれる前記第1の物体の画像の位置に基づいて、前記投影用画像の位置を調整してもよい。
この態様によれば、投影用画像を切替えても第1の物体と第2の物体との位置関係を保持することができる。
本発明の一態様では、前記投影用画像取得手段は、前記物体認識手段が認識した領域に基づいて前記複数の投影用画像から1つの投影用画像を取得してもよい。
この態様によれば、ある投影用画像において特定の領域を見せたくない場合に、その特定の領域を見せないようにすることができる。
本発明の一態様では、前記投影制御手段は、ユーザから投影される前記第1の物体の変更サイズを示す情報を取得し、前記サイズを示す情報に基づいて、当該投影用画像のサイズを実物大から変化させてもよい。
この態様によれば、第1の物体のサイズが変化することが予想される場合に、それを考慮してコーディネートを確認することができる。
本発明の一態様では、前記投影制御手段は、前記投影用画像のサイズが実物大から変化する場合に、前記認識された領域の位置に基づいて、前記投影用画像の位置を調整してもよい。
この態様によれば、例えば、第1の物体のサイズを変化させた際に、第2の物体を動かす量を減らすことができる。
本発明の一態様では、前記投影制御手段は、前記認識された領域に所定の画像をさらに投影するよう制御してもよい。
本発明の一態様では、前記投影制御手段は、第1のモードでは、前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御し、第2のモードでは、前記認識された領域のうち、その前のユーザが指示したタイミングにおいて第2の物体が遮らないと認識された領域に前記取得された投影用画像を投影するよう制御してもよい。
本発明の実施形態にかかる画像処理システムの構成の一例を示す図である。 カメラ、プロジェクタ、投影面、物体、投影される画像の配置の一例を示す図である。 画像処理装置が実現する機能を示すブロック図である。 投影用画像解析部の処理フローの一例を示す図である。 投影用画像の一例と解析対象となる箇所の一例とを示す図である。 投影用画像の他の一例を示す図である。 投影用画像から検出された情報の一例を示す図である。 撮影データ取得部、投影面認識部、物体形状取得部、投影用画像取得部、投影制御部の処理フローの一例を示す図である。 投影面の手前にある物体の形状の一例を示す図である。 距離画像から認識される投影面の手前にある物体を示す領域の一例を示す図である。 人体の画像と判定領域との関係の一例を示す図である。 画像処理がされた画像の一例を示す図である。 第1の表示モードにおける投影された画像と第2の物体の一例を示す図である。 第2の表示モードにおける投影された画像と第2の物体の一例を示す図である。
以下では、本発明の実施形態について図面に基づいて説明する。同じ符号を付された構成については、重複する説明を省略する。
図1は、本発明の実施形態にかかる画像処理システムの構成の一例を示す図である。画像処理システムは、画像処理装置1と、カメラ2と、プロジェクタ3と、を含む。
画像処理装置1は、ユーザが操作するコンピュータであり、例えばパーソナルコンピュータや携帯端末などである。画像処理装置1は、プロセッサ11、記憶部12、通信部13、入出力部14を含む。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作する。またプロセッサ11は通信部13、入出力部14を制御する。なお、上記プログラムは、インターネット等を介して提供されるものであってもよいし、DVD−ROM等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよい。
記憶部12は、RAMやフラッシュメモリ等のメモリ素子やハードディスクドライブ等によって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、各部から入力される情報や演算結果を格納する。
通信部13は、他の装置と通信する機能を実現するものであり、例えば有線LANや無線LANの集積回路やアンテナなどにより構成されている。通信部13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11や記憶部12に入力し、他の装置に情報を送信する。
入出力部14は、表示出力デバイスや他の入出力デバイスとのやりとりを行う回路であり、例えば表示出力デバイスに画像を出力させるグラフィックボードや、キーボード、マウス、カメラ2などの入力デバイスからのデータを取得するUSBコントローラなどにより構成される。入出力部14は、プロセッサ11の制御に基づいて、画像データ等を表示出力デバイスに対して出力し、入力デバイスより操作者(ユーザ)からの情報や、カメラ2が取得した画像のデータなどを取得する。なお、入出力部14に接続される表示出力デバイスの1つはプロジェクタ3であり、もう1つは図示しない液晶表示デバイスなどのディスプレイである。
カメラ2は、可視画像や距離画像を取得するデバイスである。ここで、距離画像は2次元に並ぶピクセルからなり、その各ピクセルは、そのピクセルの方向にある物体がカメラ2からどれだけ離れているかの情報(距離)を有する。なお、距離画像に含まれる各ピクセルはそのピクセルの方向にある物体の3次元座標を有してもよい。このカメラ2のうち距離画像を取得する部分は、例えばKINECT(登録商標)のように、物体に照射された赤外線の反射光に基づいて距離を判断するものである。他に、距離を取得するために、レーザーレンジファインダーや、カメラプロジェクションシステム、ステレオカメラなどが用いられてもよい。
プロジェクタ3は、ライトと、レンズと、画素ごとに出力光の大きさを制御する素子とを含む投影デバイスである。プロジェクタ3は、入出力部14から入力される画像データが示す画像を、レンズの先にある投影面などに投影する。ここで、プロジェクタ3に対する投影面がプロジェクタ3から遠いほど投影される画像の大きさが大きくなるという特徴がある。また、カメラ2が撮影する画像における位置とプロジェクタ3が投影する画像の位置とのずれを予め補正しておく必要がある。ここではその位置ずれに対するキャリブレーションが予めなされているものとして説明する。
図2は、カメラ2、プロジェクタ3、投影面、物体、投影される画像の配置の一例を示す図である。図2では、投影面は壁であり、物体はボトムス7であり、投影される画像は人体画像8である。この画像処理システムをユーザが利用する際には、ユーザがボトムス7のような物体を投影面の手前にかざす。するとカメラ2は、プロジェクタ3の投影方向にある投影面や物体の距離画像や可視画像を撮影する。ここで、カメラ2は距離画像を取得するための赤外光を照射するユニットを有し、カメラ2の長手方向は撮影方向と直交する方向になっている。カメラ2で撮影された距離画像および可視画像は画像処理装置1に送られ、プロジェクタ3は人体画像8を壁に投影している。また、ユーザはその投影された画像をみながら、コーディネートを判断しやすいようにボトムス7の位置を調整して投影面に投影された人体にあてがっている。この人体画像8は、ボトムス7とのサイズの対比が可能なように実物大あるいは実物大をさらに調整した大きさで投影面に投影される。以下では投影面に投影される人体画像8のような物体を第1の物体、投影面の前にかざされる物体を第2の物体とも記載する。なお、第2の物体はボトムス7には限られず、トップスでもよいし、またカーテンのようなものでもよい。また、第2の物体がカーテンの場合は、投影される画像として窓を含む部屋の写真を用いてよい。
図3は、画像処理装置1が実現する機能を示すブロック図である。画像処理装置1は、機能的に、投影用画像解析部51と、撮影データ取得部52と、投影面認識部53と、物体認識部54と、投影用画像取得部55と、投影制御部56とを含む。これらの機能は、プロセッサ11が記憶部12に格納されたプログラムを実行し、入出力部14等を制御することで実現される。ここで、投影用画像取得部55、物体認識部54、投影制御部56は、それぞれ本願請求項の投影用画像取得手段、物体認識手段、投影制御手段に対応する。
以下では、画像処理装置1が実現する各機能について、処理フローやその他の図面を用いて説明する。
投影用画像解析部51は、プロセッサ11、記憶部12、および通信部13を中心として実現される。投影用画像解析部51は、投影面に投影する画像の候補である1または複数の投影用画像31を取得し、投影用画像31に含まれる人体などの物体を実物大のサイズに投影するための情報や、複数の投影用画像31から1つを選択するための情報を解析する。前者の情報は、投影用画像31が物体の画像として人体画像8を含む場合には身長に相当する投影用画像内のピクセル長などであり、後者の情報は肌の露出の態様などの情報である。複数の投影用画像31のうち1つが加工され、プロジェクタ3により投影される。
図4は、投影用画像解析部51の処理フローの一例を示す図である。投影用画像解析部51は、はじめに、複数の投影用画像31の画像データを取得する(ステップS101)。投影用画像31は、ユーザが持参し画像処理装置1に入力する画像であるが、投影用画像解析部51はフラッシュメモリのような不揮発性メモリに記憶された画像のデータを入出力部14を経由して取得してもよいし、通信部13を介して画像のデータを取得してもよい。
次に、投影用画像解析部51は、投影用画像31に含まれる人体の画像の上端、下端の位置と頭の位置とを検出する(ステップS102)。また、投影用画像解析部51は、上半身および下半身に対応する領域の肌色の割合を検出する(ステップS103)。投影用画像解析部51は、これらの検出された情報を記憶部12に保存する(ステップS104)。
図5は、投影用画像31の一例と解析対象となる箇所の一例とを示す図である。投影用画像31に含まれる人体の画像から直接的に検出されるのは、人体の頭部領域43と、その頭部領域43の上端に対応し、人体上端線41で表される人体の上端と、人体下端線42で表される人体の下端である。頭部領域43は、いわゆる顔検出の手法により検出される。また、投影用画像解析部51は人体の上端を、顔検出の結果から検出してもよいし、さらに人体の頭の上端に相当するエッジを探して取得してもよい。投影用画像解析部51は人体の下端も、人体の形状に相当するエッジを探すことで取得してよい。また、ユーザの手作業により入力された上端および下端位置を取得するようにしてもよい。
図5に示す上半身に対応する肌検出領域44と下半身に対応する肌検出領域45とは、肌色の割合を得るための領域である。これらの領域の位置や形状等については、頭部領域43と、人体の下端の位置との情報から求めてよい。頭部領域43および人体の下端の位置と、肌検出領域44,45との関係については予め統計的に解析しておき、その統計の結果を用いて算出すればよい。なお、さらに人体の上端の位置を用いて肌検出領域44,45を算出してもよい。
ここで、本実施形態の例では、ユーザは、複数の投影用画像31として、互いに肌の露出の度合いの異なる写真などを用いることを想定している。図6は、投影用画像31の他の一例を示す図である。図6に示す画像は図5に示す画像に比べて人体の肌の露出の度合いが少ない。この違いを用いてプロジェクタで投影する画像を選択するが、その詳細については後述する。
図7は、投影用画像31から検出された情報の一例を示す図である。本図では、4つの投影用画像31が入力された場合のデータの例である。ここでは、人体の上端および下端、頭部の位置、上半身の露出の度合い、下半身の露出の度合いに相当する情報として、投影用画像31を識別する情報である画像番号、投影用画像31における人体の上端および下端のy座標、頭の中心位置を示す座標、上半身の肌検出領域44における肌色の割合、下半身の肌検出領域45における肌色の割合が検出されている。例えば画像番号1は、上半身および下半身の肌検出領域44,45における肌色の割合が他の投影用画像31に比べて低く、例えば図6のような画像に対応し、画像番号3は、上半身および下半身の肌検出領域44,45における肌色の割合が他の投影用画像31に比べて高く、例えば水着のような格好の画像に対応する。
図8は、撮影データ取得部52、投影面認識部53、物体認識部54、投影用画像取得部55、投影制御部56の処理フローの一例を示す図である。
撮影データ取得部52は、プロセッサ11、記憶部12、入出力部14を中心として実現される。撮影データ取得部52は、カメラ2が撮影した投影面や投影面の手前にある物体についての距離画像および可視画像のデータを取得する(ステップS201)。
投影面認識部53は、プロセッサ11、記憶部12を中心として実現される。投影面認識部53は、撮影データ取得部52が取得した距離画像に基づいて投影面の配置を認識する(ステップS202)。投影面の検出の方法としては、例えば距離画像の隅から3つ以上の点を抽出し、それらの3次元的な位置から投影面の位置と傾きを認識すればよい。また、予め距離画像から深度が急に変化するエッジの線を検出し、その線に囲まれた領域を除外して投影面の位置と傾きを認識するための点を抽出してもよい。なお、投影面認識部53の処理は省略してもよい。代わりに、例えばユーザが予め投影面への距離を手動で測定しておき、その距離を記憶部12に予め記憶させておけばよい。
物体認識部54は、プロセッサ11、記憶部12を中心として実現される。物体認識部54は、距離画像から投影面の手前にある物体(第2の物体)を認識する(ステップS203)。正確には、物体認識部54はプロジェクタ3が投影面に向けて投影する画像のうち、第2の物体が遮る領域33を認識する。より具体的には、例えば、物体認識部54は、距離画像においてカメラ2からの処理が急に変わる箇所であるエッジの線を検出し、そのエッジの線で囲まれた領域を第2の物体が遮る領域33として認識する。あるいは、物体認識部54は、距離画像のうち、投影面認識部53が認識した投影面の手前にあり、投影面からの距離が一定以上である領域を第2の物体が遮る領域33として認識してもよい。なお、物体認識部54は、第2の物体が遮る領域33を検出する際に、予め記憶された補正情報を用いてカメラ2とプロジェクタ3との空間的な位置の違いに伴う領域のずれを補正してもよい。補正情報は、例えば、プロジェクタ3が投影する画像とカメラ2が撮影した画像との間におけるxy方向のずれを示す情報である。すると、物体認識部54は、第2の物体が遮る領域33を、カメラ2に対する第2の物体の空間的位置と、カメラ2とプロジェクタ3との空間的位置関係とに基づいて、算出することになる。カメラ2に対する第2の物体の空間的位置を示す補正情報は、カメラ2によって撮影された画像に基づいて算出できる。ここで、物体認識部54は、プロジェクタ3が投影用画像31を投影する前であっても後であっても第2の物体が遮る領域33を認識できることは言うまでもない。第2の物体が遮る領域33は、仮に投影用画像31を投影した場合に第2の物体により遮られる投影用画像31中の領域であってよい。
図9Aは、投影面の手前にある物体の形状の一例を示す図である。図9Bは、距離画像から認識される投影面の手前にある物体を示す領域33の一例を示す図である。図9Aのようなボトムス7についての距離画像は、ボトムス7の端に相当する部分の内側から外側にかけてカメラ2からの距離が急に増加し、その距離の差も一定以上ある。また、投影面が平面でありその向きが検出されていれば、距離画像を構成する各ピクセルについて投影面との距離を求めることができ、その距離が閾値を超えるピクセルからなる領域を第2の物体の領域33として分離してもよい。なお、投影面がカメラ2の向きに対し垂直であれば、物体認識部54はボトムス7とボトムス7の奥にある投影面とを、距離画像の各画像のピクセルのうちカメラ2からの距離が閾値より小さいものからなる領域を第2の物体の領域33として分離してもよい。
また、物体認識部54は可視画像を用いて第2の物体が遮る領域33を認識してもよい。例えば、投影用画像31を投影しない状態を周期的につくり、その状態で取得された可視画像から第2の物体のエッジを検出することで、第2の物体が遮る領域33を認識してもよい。
投影用画像取得部55は、プロセッサ11、記憶部12を中心として実現される。投影用画像取得部55は、ユーザが入力し、投影用画像解析部51により解析された複数の投影用画像31のうちから1つの投影用画像31を選択する。より具体的には、投影用画像解析部51は人体のサイズに関する情報を取得し(ステップS204)、さらに、投影用画像31に含まれる第1の物体に応じて定まる判定領域を第2の物体が隠すか否かに基づいて投影用画像31を選択する(ステップS205)。図10は、人体の画像と判定領域46,47との関係の一例を示す図である。判定領域46は、人体の手を除く上半身に対応する領域であり、判定領域47は、人体の下半身の部分のうちお尻の周辺に対応する領域である。
投影用画像取得部55は、上半身に対応する判定領域46を第2の物体が隠さない(覆っていない)場合には、上半身に対応する肌検出領域44における露出の度合い(肌色の割合)が閾値より小さいものを投影用画像31の候補とする。これにより、不用意に上半身の露出の高い画像が投影されてしまうことを防止できる。一方、上半身に対応する判定領域46を第2の物体が隠している(覆っている)場合には、上半身に対応する肌検出領域44における露出の度合い(肌色の割合)が閾値より大きいものを投影用画像31の候補とする。これにより、上半身にあてがわれた第2の物体(トップス)から投影用画像31中のトップスがはみ出てしまうことを抑制できる。
さらに、投影用画像取得部55は、下半身に対応する判定領域47を第2の物体が隠さない場合には、候補のうち下半身に対応する肌検出領域45における露出の度合いが閾値より小さいものを投影用画像31として取得する。これにより、不用意に下半身の露出の高い画像が投影されてしまうことを防止できる。一方、下半身に対応する判定領域47を第2の物体が隠している場合には、下半身に対応する肌検出領域45における露出の度合いが閾値より大きいものを投影用画像31として取得する。これにより、下半身にあてがわれた第2の物体(ボトムス)から投影用画像31中のボトムスがはみ出てしまうことを抑制できる。
これらにより、人体画像8を投影する場合に、露出度の低い画像でボトムス7等の大まかな位置あわせを行い、コーディネートの確認はトップスやボトムスのはみ出しの心配の少ない露出度の高い画像で行うことが可能となる。
なお、投影用画像31の選択は、必ずしも肌色の割合を用いなくてもよい。事前にユーザが上半身の露出が多いか否かと下半身の露出が多いか否かを各画像について指定しておき、その情報に基づいて選択してもよい。
ここで、ステップS204で取得するサイズの情報は、例えばユーザから入力された身長などである。またサイズの情報として、子どもの年齢の情報も取得してよい。例えば、子どもの年齢と身長と既知の成長曲線とから半年後の身長を予測し、その身長を以下の処理で用いてもよい。こうすれば、衣服を探す際に、子どもの身長の伸びを考慮したコーディネートの確認が容易にできる。投影用画像取得部55は、判定領域46,47の位置や大きさを、このサイズの情報と、いずれかの投影用画像31から取得される頭部領域43の位置や人体の下端の位置と、投影面とから求める。予め頭部領域43の位置や人体の下端の位置と判定領域46,47の位置との関係について統計的に解析し、その結果と投影面の位置に基づいて判定領域46,47の位置や大きさを計算すればよい。
なお、投影用画像31の選択は手動で行ってもよい。例えばディスプレイに複数の投影用画像31を表示しておき、ユーザがその中からプロジェクタ3が投影する投影用画像31を選択できるようにしてもよい。
投影制御部56は、プロセッサ11、記憶部12および入出力部14を中心として実現される。投影制御部56は、投影用画像31をプロジェクタ3が投影するように制御する。特に、投影制御部56は、その投影用画像31において、投影面に投影される第1の物体の画像の大きさが実物大になり、かつ前記第2の物体上に投影される領域が隠されるようにプロジェクタ3を制御する。
はじめに、投影制御部56は、投影用画像31のサイズを調整する(ステップS206)。より具体的には、ステップS204において取得された第2の物体のサイズに関する情報を用い、投影用画像31に含まれる人体画像8などの第1の物体が投影面に実物大やそれに類するサイズで表示されるように、投影用画像31のサイズを拡大縮小する。このサイズは、投影制御部56は、前述のように、投影する第1の物体のサイズを、子どもの年齢等を考慮して、実物のサイズから変化させてもよい。拡大縮小の比率は、第1の物体を投影するサイズと、その投影用画面におけるサイズと、投影面(投影面への距離など)の情報を用いて計算する。例えば、投影面がプロジェクタ3の投影方向に垂直な場合は、投影面の距離における身長に相当する線の長さがプロジェクタ3のいくつのピクセルに相当するかを確認し、そのピクセル数と、人体上端線41と人体下端線42との間のピクセル数との比率を拡大縮小の比率とすればよい。
次に、投影制御部56は、投影用画像31の位置を調整する(ステップS207)。これは、投影用画像31によって人などの第1の物体の位置が異なっていても同じ位置に投影用画像31を投影するための処理である。より具体的には、投影面に投影される頭部の位置が、どの投影用画像31が選択されても重なるように投影用画像31の位置を調整する。ここで、投影制御部56は、サイズや位置の調整を、投影用画像31の画像データをソフトウェアで変換することで実現してもよいし、グラフィックボードに搭載される画像処理回路などのハードウェアを用いて実現してもよい。
また、投影制御部56は、ユーザの動作に基づいて、表示モードを決定する(ステップS208)。より具体的には、投影制御部56は、ユーザが、例えば、一定の間だけ第1の物体の位置を固定する動作や、第1の物体を少し振る操作などの予め定められた動作をした場合に、通常の第1のモードから、衣服等の補正量を確認するための第2のモードに切替える。第1のモードおよび第2のモードの動作については以下で説明する。
次に投影制御部56は、投影用画像31のうち第2の物体上に投影される領域33が隠された画像を生成する(ステップS209)。この処理は表示モードにより若干異なる。第1のモードでは、投影用画像31のうち、物体認識部54が認識した図9Bのような第2の物体に相当する領域33の色を、所定の色で置き換えた画像を生成することで、第2の物体上に投影される領域33が隠された画像を生成する。第2のモードでは、第2の物体上の領域33のうち、ユーザが指示したタイミングにおいて第2の物体が認識されていない領域に投影用画像31を投影し、かつその他の第2の物体上には投影用画像31の部分を投影しない画像を生成する。ここで、領域を隠す処理は、より具体的には、例えばその領域を白色で塗りつぶすことで実現している。塗りつぶす色はその部分の色が投影される第2の物体の色に問題が生じなければどのような色でもよいが、白色や灰色が望ましい。
次に投影制御部56は、付加的な画像を付加する(ステップS210)。付加的な画像とは、例えばボトムス7の長さを測ることを可能にする目盛りのような画像である。より具体的には、投影制御部56は、認識された第2の物体の領域33の上端から下端まで延びる目盛りの画像を加工されたステップS209で加工された画像に付加する。この目盛りの0の位置は、例えばその上端(ボトムス7の場合)や下端である。なお、この処理は第1のモードで行い、第2のモードでは行わなくてもよいし、この処理を省略してもよい。
図11は、プロジェクタ3に投影される画像であって第1のモードにおいて画像処理がされた画像の一例を示す図である。本図の破線で囲まれた部分は、ステップS209の処理で隠された部分であり、さらに付加的な画像として、上下方向の目盛りの画像が付加されている。この目盛りの画像は、ボトムス7について目盛りを付加する場合には、ボトムス7の上端部分が0になるように目盛りの画像の位置が調整されている。
次に、投影制御部56は、プロジェクタ3に加工された画像を投影させる(ステップS211)。図12は、第1の表示モードにおける投影された画像と第2の物体の一例を示す図である。画像処理装置1の処理により、投影用画像31に表示される人体などに実物である第2の物体を添えるように当てた状態をユーザが実感することができる。このようにすれば、商品などの実物がある箇所に連れてくることが難しい人や物と、実物とを組み合わせた場合の印象やサイズを確認することが可能になる。また、商品を探す際に最も重要である商品の質感も確認することができる。また、第2の物体上に目盛りのような画像を投影することで、オーダーメードや丈の補正をする際に、その量を把握することが容易になる。
図13は、第2の表示モードにおける投影された画像と第2の物体の一例を示す図である。衣服を探す際に、スカートなどのボトムス7の丈を補正する量を確認する際に、ボトムス7の下端を適切な位置にして、上端の移動量でその補正量を確認することが考えられる。こうすると、ボトムス7の裾をまくり上げるより容易に補正の量を認識することが可能である。例えば、ユーザがボトムス7の位置を上方に動かした場合に、元の位置から上方に動いた部分については人体を投影させることで、その補正の量をさらに容易に認識することが可能となる。本図では、目盛りが表示されていないが、投影制御部56は図11に示すような目盛りを表示するよう制御してもよい。この場合、投影制御部56は、ユーザが指示したタイミングにおけるボトムス7に遮られる移動前領域34の上端から、移動後(現時点)のボトムス7(に相当する領域33)の下端まで目盛りがのびるように制御してよい。また、移動量がわかるように、投影制御部56はユーザが指示したタイミングにおけるボトムス7の下端や移動後のボトムス7の上端を起点とした目盛りを表示するよう制御してもよい。
1 画像処理装置、2 カメラ、3 プロジェクタ、7 ボトムス、8 人体画像、11 プロセッサ、12 記憶部、13 通信部、14 入出力部、31 投影用画像、33 第2の物体が遮る領域、34 移動前領域、41 人体上端線、42 人体下端線、43 頭部領域、44,45 肌検出領域、46,47 判定領域、51 投影用画像解析部、52 撮影データ取得部、53 投影面認識部、54 物体認識部、55 投影用画像取得部、56 投影制御部。

Claims (11)

  1. 投影面に投影される人体の画像を含む投影用画像を取得する投影用画像取得手段と、
    投影手段が前記投影面に投影する画像のうち前記投影面の手前にある衣服が遮る領域を認識する物体認識手段と、
    前記投影面に投影される人体の画像の大きさが実物大になり、かつ前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御する投影制御手段と、
    を含むことを特徴とする画像処理装置。
  2. 前記物体認識手段は、ピクセルごとの撮影手段からの距離を示す距離画像に基づいて、前記衣服が遮る領域を認識する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記物体認識手段は、周期的に前記衣服が遮る領域を認識し、
    前記投影制御手段は、前記物体認識手段が前記衣服が遮る領域を認識するごとに、前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記投影用画像取得手段は人体を含む複数の投影用画像から1つの投影用画像を取得し、
    前記投影制御手段は、前記取得された投影用画像に含まれる前記人体の画像の位置に基づいて、前記投影用画像の位置を調整する、
    ことを特徴とする請求項1から3のいずれかに記載の画像処理装置。
  5. 前記投影用画像取得手段は、前記物体認識手段が認識した領域に基づいて前記複数の投影用画像から1つの投影用画像を取得する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記投影制御手段は、ユーザから投影される前記人体の変更サイズを示す情報を取得し、前記変更サイズを示す情報に基づいて、当該投影用画像のサイズを実物大から変化させる、
    ことを特徴とする請求項1から5のいずれかに記載の画像処理装置。
  7. 前記投影制御手段は、前記投影用画像のサイズが実物大から変化する場合に、前記認識された領域の位置に基づいて、前記投影用画像の位置を調整する、
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記投影制御手段は、前記認識された領域に所定の画像をさらに投影するよう制御する、
    ことを特徴とする請求項1から7のいずれかに記載の画像処理装置。
  9. 前記投影制御手段は、第1のモードでは、前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御し、第2のモードでは、前記認識された領域のうち、その前のユーザが指示したタイミングにおいて衣服が遮らないと認識された領域に前記取得された投影用画像を投影するよう制御する、
    ことを特徴とする請求項1から8のいずれかに記載の画像処理装置。
  10. 投影面に投影される人体の画像を含む投影用画像を取得するステップと、
    投影手段が投影する前記投影用画像を前記投影面の手前にある衣服が遮る領域を認識するステップと、
    前記投影面に投影される人体の画像の大きさが実物大になり、かつ前記認識された領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御するステップと、
    を含むことを特徴とする画像処理方法。
  11. 投影面に投影される人体の画像を含む投影用画像を取得する投影用画像取得手段、
    投影手段が投影する前記投影用画像を前記投影面の手前にある衣服が遮る領域を認識する物体認識手段、および、
    前記投影面に投影される人体の画像の大きさが実物大になり、かつ前記物体認識手段が認識した領域の色が所定の色で置き換えられた前記投影用画像を前記投影手段が投影するように制御する投影制御手段、
    としてコンピュータを機能させるためのプログラム。
JP2012216568A 2012-09-28 2012-09-28 画像処理装置、画像表示方法、およびプログラム Active JP5791577B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012216568A JP5791577B2 (ja) 2012-09-28 2012-09-28 画像処理装置、画像表示方法、およびプログラム
ES13842798T ES2738644T3 (es) 2012-09-28 2013-04-18 Dispositivo de procesamiento de imagen, método de procesamiento de imagen, programa, y soporte de almacenamiento legible por ordenador
EP13842798.4A EP2894851B1 (en) 2012-09-28 2013-04-18 Image processing device, image processing method, program, and computer-readable storage medium
US14/431,755 US10091474B2 (en) 2012-09-28 2013-04-18 Image processing device, image processing method, program and computer-readable storage medium
PCT/JP2013/061481 WO2014050186A1 (ja) 2012-09-28 2013-04-18 画像処理装置、画像処理方法、プログラムおよびコンピュータ読取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216568A JP5791577B2 (ja) 2012-09-28 2012-09-28 画像処理装置、画像表示方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2014072656A JP2014072656A (ja) 2014-04-21
JP2014072656A5 JP2014072656A5 (ja) 2015-04-23
JP5791577B2 true JP5791577B2 (ja) 2015-10-07

Family

ID=50387606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216568A Active JP5791577B2 (ja) 2012-09-28 2012-09-28 画像処理装置、画像表示方法、およびプログラム

Country Status (5)

Country Link
US (1) US10091474B2 (ja)
EP (1) EP2894851B1 (ja)
JP (1) JP5791577B2 (ja)
ES (1) ES2738644T3 (ja)
WO (1) WO2014050186A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104052977B (zh) * 2014-06-12 2016-05-25 海信集团有限公司 一种交互式图像投影方法和装置
CN106028010A (zh) * 2016-06-17 2016-10-12 联想(北京)有限公司 一种显示控制方法及装置
CN106060310A (zh) * 2016-06-17 2016-10-26 联想(北京)有限公司 一种显示控制方法及装置
JP6996114B2 (ja) * 2017-05-29 2022-01-17 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
CN109104596B (zh) * 2017-06-21 2021-02-26 中强光电股份有限公司 投影系统以及显示影像的校正方法
CN108281880A (zh) * 2018-02-27 2018-07-13 广东欧珀移动通信有限公司 控制方法、控制装置、终端、计算机设备和存储介质
EP3564748A4 (en) 2018-02-27 2020-04-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. CONTROL METHOD, CONTROL DEVICE, TERMINAL, COMPUTER DEVICE AND STORAGE MEDIUM
US10618133B1 (en) * 2018-02-27 2020-04-14 Levis Strauss & Co. Apparel design system with intelligent asset placement
CN108805951B (zh) * 2018-05-30 2022-07-19 重庆辉烨物联科技有限公司 一种投影图像处理方法、装置、终端和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850222A (en) * 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment
US7328119B1 (en) * 2000-03-07 2008-02-05 Pryor Timothy R Diet and exercise planning and motivation including apparel purchases based on future appearance
JP2002297119A (ja) * 2001-04-02 2002-10-11 Canon Inc 画像表示装置および画像表示システム
US7953648B2 (en) * 2001-11-26 2011-05-31 Vock Curtis A System and methods for generating virtual clothing experiences
JP3849654B2 (ja) * 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
US8098330B2 (en) * 2006-07-28 2012-01-17 International Business Machines Corporation Mapping of presentation material
JP5298425B2 (ja) * 2006-12-12 2013-09-25 株式会社ニコン 投影装置およびカメラ
US8068676B2 (en) * 2007-11-07 2011-11-29 Palo Alto Research Center Incorporated Intelligent fashion exploration based on clothes recognition
US9241143B2 (en) * 2008-01-29 2016-01-19 At&T Intellectual Property I, L.P. Output correction for visual projection devices
CN102016877B (zh) * 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US8306265B2 (en) * 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
GB2473503B (en) 2009-09-15 2015-02-11 Metail Ltd System and method for image processing
JP5454325B2 (ja) * 2009-11-18 2014-03-26 セイコーエプソン株式会社 画像形成装置
CN102193287B (zh) * 2010-03-11 2013-03-20 宏碁股份有限公司 投影方法与投影系统
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
JP2011237907A (ja) * 2010-05-07 2011-11-24 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
US8782565B2 (en) 2012-01-12 2014-07-15 Cisco Technology, Inc. System for selecting objects on display
JP5728406B2 (ja) * 2012-01-30 2015-06-03 楽天株式会社 衣服画像処理システム、衣服画像処理方法、プログラム
US9147207B2 (en) * 2012-07-09 2015-09-29 Stylewhile Oy System and method for generating image data for on-line shopping

Also Published As

Publication number Publication date
EP2894851A4 (en) 2016-05-25
WO2014050186A1 (ja) 2014-04-03
US10091474B2 (en) 2018-10-02
EP2894851B1 (en) 2019-06-05
JP2014072656A (ja) 2014-04-21
ES2738644T3 (es) 2020-01-24
US20150244997A1 (en) 2015-08-27
EP2894851A1 (en) 2015-07-15

Similar Documents

Publication Publication Date Title
JP5791577B2 (ja) 画像処理装置、画像表示方法、およびプログラム
JP5791812B2 (ja) 衣服画像処理装置、衣服画像表示方法、およびプログラム
EP2745504B1 (en) Image projector, image processing method, computer program and recording medium
KR101198727B1 (ko) 화상투영장치 및 그 제어 방법
JP5921271B2 (ja) 物体測定装置、及び物体測定方法
KR102111935B1 (ko) 표시 제어장치, 표시 제어방법 및 프로그램
JP2015510112A (ja) 仮想定規
WO2018111915A1 (en) Foot measuring and sizing application
CN107950019B (zh) 信息处理装置、信息处理方法和计算机可读存储介质
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
JP2014106732A (ja) 情報処理装置および情報処理方法
KR20170027266A (ko) 영상 촬영 장치 및 그 동작 방법
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
JP2017194301A (ja) 顔形状測定装置及び方法
KR20220054157A (ko) 촬영 가이드 제공 방법 및 이를 수행하는 시스템
JP2019045989A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
US9843715B2 (en) Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP6390163B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2020240989A1 (ja) 撮像装置、撮像制御方法および撮像制御プログラム
JP2012165212A (ja) 撮像装置及びその制御方法
KR101965045B1 (ko) 단초점 프로젝터를 이용한 화면 회전 효과 생성 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150309

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150309

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5791577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250