JP5874325B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5874325B2
JP5874325B2 JP2011242012A JP2011242012A JP5874325B2 JP 5874325 B2 JP5874325 B2 JP 5874325B2 JP 2011242012 A JP2011242012 A JP 2011242012A JP 2011242012 A JP2011242012 A JP 2011242012A JP 5874325 B2 JP5874325 B2 JP 5874325B2
Authority
JP
Japan
Prior art keywords
image processing
size
captured image
image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011242012A
Other languages
English (en)
Other versions
JP2013097699A (ja
JP2013097699A5 (ja
Inventor
麗子 宮崎
麗子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011242012A priority Critical patent/JP5874325B2/ja
Priority to US13/596,275 priority patent/US20130113826A1/en
Priority to CN2012104173956A priority patent/CN103198460A/zh
Publication of JP2013097699A publication Critical patent/JP2013097699A/ja
Publication of JP2013097699A5 publication Critical patent/JP2013097699A5/ja
Application granted granted Critical
Publication of JP5874325B2 publication Critical patent/JP5874325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像処理装置、画像処理方法およびプログラムに関する。
ユーザは衣装を購入しようとする場合、店舗内で実際に衣装を試着しながら自分の身体のサイズに合った衣装を購入対象として選択する手法を採用する場合がある。しかし、例えば、インターネットを利用して衣装の購入を行う場合には、ユーザは実際に衣装を手に取って衣装を選択することができない。その他、ユーザは自分の身体のサイズの測定結果に応じた衣装を購入する手法を採用することも可能である。しかし、このような手法を採用する場合には、身体のサイズを測定するための手間がユーザに掛かってしまう。
一方、撮像により得られた画像(以下、「撮像画像」とも言う。)に各種のオブジェクトを合成する技術が知られている。撮像画像には様々なオブジェクトが合成され得るが、例えば、被写体(例えば、人物や動物など)が撮像される場合にはその被写体が身に着ける物(例えば、衣装や鞄など)の画像がオブジェクトとして撮像画像に合成され得る。撮像画像に対してオブジェクトを合成する技術としては、様々な技術が開示されている。
例えば、衣装画像を人物画像に合成する技術が開示されている(例えば、特許文献1参照)。このように人物画像に衣装画像が合成されることにより得られる合成画像を見れば、ユーザは店舗内で実際に衣装を試着しなくても、自分が衣装を着たときの見た目を把握しながら衣装を選択することができる。
特開2005−136841号公報
しかしながら、例えば、ユーザの身体のサイズに応じた衣装画像を人物画像に合成する技術は開示されていない。そのため、ユーザの身体のサイズが考慮されていない衣装画像が人物画像に合成される可能性があった。したがって、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に合成される仮想オブジェクトを決定する技術が実現されることが望ましい。
本開示によれば、撮像画像に仮想オブジェクトを合成する画像処理部を備え、前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定する、画像処理装置が提供される。
また、本開示によれば、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に合成される仮想オブジェクトを決定すること、を含む、画像処理方法が提供される。
また、本開示によれば、コンピュータを、撮像画像に仮想オブジェクトを合成する画像処理部を備え、前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定する画像処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に合成される仮想オブジェクトを決定することが可能である。
本開示の実施形態に係る画像処理システムの概要を説明するための図である。 画像処理装置の構成例を示すブロック図である。 骨格情報および深度情報を説明するための図である。 画像処理装置のサイズ測定部および画像処理部の各々が有する機能の一例を説明するための図である。 画像処理装置により生成される合成画像の例を示す図である。 画像処理装置の動作の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.画像処理システムの概要
2.画像処理装置が有する機能
3.画像処理装置の動作
4.むすび
<1.画像処理システムの概要>
以下では、まず、本開示の実施形態に係る画像処理システムの概要について図1を参照して説明する。
図1は、本開示の実施形態に係る画像処理システムの概要を説明するための図である。図1に示したように、本開示の実施形態に係る画像処理システム10は、画像処理装置100と表示部130と撮像部140とセンサ部150とを含む。画像処理システム10が設置される場所は特に限定されない。例えば、画像処理システム10は、被写体20の自宅内に設置されてもよい。
また、図1に示した例では、画像処理システム10を構成する複数のブロック(例えば、画像処理装置100、表示部130、撮像部140およびセンサ部150)が別体に構成されているが、画像処理システム10を構成する複数のブロックのいずれかの組み合わせが一体化されていてもよい。例えば、画像処理システム10を構成する複数のブロックは、スマートフォン、PDA(Personal Digital Assistants)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置または携帯用ゲーム機器に内蔵されていてもよい。
撮像部140は、実空間に存在する物体を撮像する。実空間に存在する物体は、特に限定されないが、例えば、人物や動物などの生き物であってもよく、車庫やテレビ台などといった生き物以外であってもよい。図1に示した例では、実空間に存在する物体として被写体20(例えば、人物)が撮像部140により撮像される。撮像部140により撮像された画像(以下、「撮像画像」とも言う。)は表示部130により表示され得る。表示部130により表示される撮像画像は、RGB画像であってもよい。図1に示した例では、被写体21が映った撮像画像131が表示部130により表示されている。
センサ部150は、実空間からパラメータを検出する機能を有している。例えば、センサ部150が赤外線センサにより構成されている場合、センサ部150は、実空間から赤外線を検出し、赤外線量に応じた電気信号を検出データとして画像処理装置100に供給することができる。画像処理装置100は、例えば、検出データに基づいて実空間に存在する物体を認識することができる。センサ部150の種類は、赤外線センサに限定されない。なお、図1に示した例では、検出データがセンサ部150から画像処理装置100に供給されることとしているが、画像処理装置100に供給される検出データは、撮像部140により撮像された画像であってもよい。
撮像画像は、画像処理装置100により処理される。例えば、画像処理装置100は、実空間に存在する物体の認識結果に応じて、撮像画像に対して仮想オブジェクトを合成することにより撮像画像を処理することができる。表示部130は、画像処理装置100により処理された後の撮像画像を表示することも可能である。例えば、画像処理装置100により被写体21の位置が認識された場合には、被写体21の位置に仮想オブジェクト(例えば、衣装画像)が合成された撮像画像が、表示部130により表示され得る。仮想オブジェクトの合成は、撮像画像とは別にあらかじめ登録されている画像を撮像画像に重畳することにより行われてもよいし、撮像画像を変形することにより(例えば、撮像画像からキャプチャされた画像を撮像画像に重畳することにより)行われてもよい。
被写体20は、このように処理された撮像画像を見ることにより、実際に衣装を試着しなくても自分が衣装を着たときの見た目を把握しながら衣装を選択することができる。しかし、被写体20のサイズに応じた衣装画像を被写体21に合成する技術は開示されていない。そのため、被写体20のサイズが考慮されていない衣装画像が被写体21に合成される可能性があった。したがって、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に合成される仮想オブジェクトを決定する技術が実現されることが望まれる。
そこで、上記事情を一着眼点にして本開示の実施形態を創作するに至った。本開示の実施形態によれば、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に合成される仮想オブジェクトを決定することができる。以下、図2〜5を参照しながら、本開示の実施形態に係る画像処理装置100が有する機能を説明する。
<2.画像処理装置が有する機能>
図2は、画像処理装置100の構成例を示すブロック図である。図2を参照すると、画像処理装置100は、制御部110および記憶部120を備える。制御部110は、サイズ測定部111、画像処理部112および表示制御部113を備える。画像処理装置100には、表示部130、撮像部140およびセンサ部150が接続されている。
(制御部)
制御部110は、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)などのプロセッサに相当する。制御部110は、記憶部120または他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する制御部110の様々な機能を動作させる。なお、制御部110を構成する各ブロックは、全てが同一の装置に組み込まれていなくてもよく、一部が他の装置(例えば、サーバ)に組み込まれていてもよい。
(記憶部)
記憶部120は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、画像処理装置100による処理のためのプログラムおよびデータを記憶する。例えば、制御部110としてコンピュータを機能させるためのプログラムを記憶する。さらに、例えば、記憶部120は、制御部110により使用されるデータを記憶する。例えば、記憶部120は、物体認識のために使用される特徴量辞書および表示対象となる仮想オブジェクトを記憶することができる。
(表示部)
表示部130は、LCD(Liquid Crystal Display)、OLED(Organic light−Emitting Diode)またはCRT(Cathode Ray Tube)などにより構成される表示モジュールである。本開示の実施形態においては、表示部130が画像処理装置100と別体に構成されていることを想定しているが、表示部130は、画像処理装置100の一部であってもよい。
(撮像部)
撮像部140は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像することにより、撮像画像を生成する。本開示の実施形態においては、撮像部140が画像処理装置100と別体に構成されていることを想定しているが、撮像部140は、画像処理装置100の一部であってもよい。
(センサ部)
センサ部150は、実空間からパラメータを検出する機能を有している。例えば、センサ部150が赤外線センサにより構成されている場合、センサ部150は、実空間から赤外線を検出し、赤外線量に応じた電気信号を検出データとして画像処理装置100に供給することができる。センサ部150の種類は、赤外線センサに限定されない。なお、撮像部140により撮像された画像が検出データとして画像処理装置100に供給される場合には、センサ部150は存在しなくてもよい。
(サイズ測定部)
サイズ測定部111は、検出データに基づいて撮像画像に映る物体の実空間上のサイズを測定する。撮像画像に映る物体の実空間上のサイズを測定する手法は特に限定されない。例えば、サイズ測定部111は、まず、撮像画像において物体の存在する領域(以下、「物体存在領域」とも言う。)を認識するとともに、センサ部150と物体との距離を取得すればよい。物体存在領域のサイズは、物体存在領域のどの部位のサイズであってもよい。そして、サイズ測定部111は、物体存在領域のサイズと当該距離とに基づいて、撮像画像に映る物体の実空間上のサイズを決定すればよい。
物体存在領域を認識する手法としては様々な手法が想定される。例えば、撮像画像が検出データとして画像処理装置100に供給された場合には、サイズ測定部111は、物体が映る前の撮像画像と物体が映っている撮像画像との差分値に基づいて、物体存在領域を認識することができる。より詳細には、サイズ測定部111は、物体が映る前の撮像画像と物体が映っている撮像画像との差分値が閾値を超える領域を、物体存在領域として認識することができる。
また、例えば、センサ部150により検出されたパラメータが検出データとして画像処理装置100に供給された場合には、サイズ測定部111は、検出データに基づいて、物体存在領域を認識することができる。より詳細には、サイズ測定部111は、検出される赤外線量が閾値を超える領域を、物体存在領域として認識することができる。
センサ部150と物体との距離を取得する手法としても様々な手法が想定される。例えば、センサ部150と物体との距離をあらかじめ定めておくことが可能である。すなわち、あらかじめ定められた距離だけセンサ部150から離れた位置に物体が配置されるような制限を設ければよい。このような制限を設ければ、サイズ測定部111は、センサ部150と物体との距離を固定値(例えば、2mなど)として扱うことができる。
また、サイズ測定部111は、撮像部140と物体との距離を撮像画像から認識してもよい。例えば、サイズ測定部111は、物体間で長さの差が小さい部分の長さにより撮像部140と物体との距離を認識してもよい。例えば、図1に示したように、被写体20が撮像される場合には、個人差の小さい部分の長さ(例えば、右眼と左眼の間の距離など)により撮像部140と被写体20との距離を認識してもよい。サイズ測定部111は、撮像画像から決定される特徴量を物体の特徴量と照合することにより、撮像画像に含まれる物体を認識することができる。このような認識手法を用いれば、サイズ測定部111は、撮像画像に含まれる右眼および左眼を認識することができる。
より具体的には、サイズ測定部111は、SIFT法またはRandom Ferns法などの特徴量決定法に従って撮像画像内の特徴量を決定し、決定した特徴量を物体の特徴量と照合する。そして、サイズ測定部111は、撮像画像内の特徴量と最も適合する特徴量と関連付けられている物体を識別するための情報、撮像画像における物体の位置および姿勢を認識する。
ここで、サイズ測定部111により、物体の特徴量データと物体を識別するための情報とが関連付けられてなる特徴量辞書が使用されるが、特徴量辞書は、記憶部120により記憶されていてもよいし、サーバから受信されてもよい。物体の特徴量データは、例えば、SIFT法またはRandom Ferns法に従って物体の学習用画像から決定された特徴量の集合であってもよい。
また、例えば、センサ部150により検出されたパラメータに基づいて距離を算出することが可能であれば、サイズ測定部111は、検出データに基づいて、センサ部150と物体との距離を算出することもできる。より詳細には、サイズ測定部111は、図示しない照射装置から赤外線などの光を物体に向けて照射した場合に、センサ部150により検出された光を解析することにより、センサ部150と物体との距離を算出することができる。
例えば、サイズ測定部111は、センサ部150により検出された光の位相遅れに基づいて、センサ部150と物体との距離を算出することができる。この手法は、TOF(Time Of Flight)方式とも言われる。あるいは、図示しない照射装置から照射される光が既知のパターンから構成される場合には、サイズ測定部111は、センサ部150により検出された光を構成するパターンの歪み具合を解析することにより、センサ部150と物体との距離を算出してもよい。
以上に説明したような手法により、検出データに基づいて撮像画像に映る物体の実空間上のサイズを測定することができる。サイズ測定部111は、画像処理装置100の代わりにセンサ部150に組み込まれていてもよい。
以上においては、サイズ測定部111は、物体の実空間上のサイズを測定することとしたが、物体の実空間上のサイズを部位ごとに測定することもできる。例えば、サイズ測定部111は、物体を認識する場合と同様に、撮像画像から決定される特徴量を物体の部位ごとの特徴量と照合することにより、撮像画像に含まれる物体の部位を認識することができる。サイズ測定部111は、この認識結果およびセンサ部150と物体との距離に基づいて物体の実空間上のサイズを部位ごとに測定することができる。
あるいは、サイズ測定部111は、撮像画像の代わりにセンサ部150から供給される検出データから決定される特徴量を物体の部位ごとの特徴量と照合することにより、物体の部位を認識することができる。サイズ測定部111は、この認識結果およびセンサ部150と物体との距離に基づいて物体の実空間上のサイズを部位ごとに測定することができる。
物体の実空間上のサイズを部位ごとに測定するために、公知技術(例えば、Microsoft(登録商標)社が開発したKinect(登録商標))を使用することもできる。かかる公知技術を使用すれば、サイズ測定部111は、被写体20を構成する1以上の部位の各々の位置を示す座標の例として、骨格情報を取得することができる。サイズ測定部111は、骨格情報に基づいて、被写体20を構成する部位のサイズを測定することができる。あるいは、サイズ測定部111は、骨格情報および深度情報に基づいて、被写体20を構成する部位のサイズを測定することができる。まず、この骨格情報および深度情報について、図3を参照しながら説明する。
図3は、骨格情報および深度情報を説明するための図である。サイズ測定部111は、上記公知技術を使用することにより、図3に示すような骨格情報を取得することができる。図3に示した例では、骨格情報は、被写体20を構成する15の部位の位置を示す座標B1〜B3、B6、B7、B9、B12、B13、B15、B17、B18、B20〜B22、B24として示されているが、骨格情報に含まれる部位の数は特に限定されない。
なお、座標B1は「Head」の座標を示し、座標B2は「Neck」の座標を示し、座標B3は「Torso」の座標を示し、座標B6は「Left Shoulder」の座標を示し、座標B7は「Left Elbow」の座標を示している。また、座標B9は「Left Hand」の座標を示し、座標B12は「Right Shoulder」の座標を示し、座標B13は「Right Elbow」の座標を示し、座標B15は「Right Hand」の座標を示している。
座標B17は「Left Hip」の座標を示し、座標B18は「Left Knee」の座標を示し、座標B20は「Left Foot」の座標を示し、座標B21は「Right Hip」の座標を示している。座標B22は「Right Knee」の座標を示し、座標B24は「Right Foot」の座標を示している。
また、サイズ測定部111は、上記公知技術を使用することにより、図3に示すような深度情報を取得することもできる。深度情報はセンサ部150からの距離を示す情報であり、図3には、簡単のため、深度が閾値よりも低い領域(センサ部150からの距離が閾値よりも小さい領域)である物体存在領域Rとその他の領域R’とが深度情報の一例として示されている。
被写体20を構成する部位のサイズは、このように取得された骨格情報に基づいて、サイズ測定部111により測定され得る。あるいは、被写体20を構成する部位のサイズは、このように取得された骨格情報および深度情報に基づいて、サイズ測定部111により測定され得る。以下、被写体20を構成する部位のサイズを測定する手法について、図4を参照しながら説明する。
図4は、画像処理装置100のサイズ測定部111および画像処理部112の各々が有する機能の一例を説明するための図である。サイズ測定部111は、例えば、骨格情報に基づいて「身丈」「袖丈」を測定することができる。より詳細には、サイズ測定部111は、座標B1を用いて「身丈」を測定することができる。また、サイズ測定部111は、座標B6および座標B7の差分値と座標B7および座標B9の差分値とを加算した結果を用いて、「袖丈」を測定することができる。あるいは、サイズ測定部111は、座標B12および座標B13の差分値と座標B13および座標B15の差分値とを加算した結果を用いて、「袖丈」を測定することができる。
また、サイズ測定部111は、例えば、骨格情報および深度情報に基づいて「肩幅」「身幅」「袖幅」を測定することができる。より詳細には、サイズ測定部111は、座標B6および座標B12の差分値に、物体存在領域Rのうち座標B6および座標B12により示される各々の部位の厚みを加算した結果を用いて、「肩幅」を測定することができる。また、サイズ測定部111は、物体存在領域Rのうち座標B3と座標B6または座標B12との間に位置する部位の太さを用いて、「身幅」を測定することができる。また、サイズ測定部111は、物体存在領域Rのうち座標Bまたは座標B1に位置する部位の太さを用いて「袖幅」を測定することができる。
図4には、サイズ測定部111により測定された被写体20の部位ごとのサイズ(y)の例が示されている。この例では、被写体20の部位ごとのサイズが「(1)身丈=71.5cm」、「(2)肩幅=43.5cm」、「(3)身幅=51.5cm」、「(4)袖丈=21.0cm」、「(5)袖幅=20.5cm」として測定されている。ここでは、被写体20のサイズとして5つの部位がサイズ測定部111により測定されているが、サイズが測定される部位の数は特に限定されない。
(画像処理部)
続いて、画像処理部112により撮像画像を処理する手法について、図4を参照しながら説明を行う。画像処理部112は、撮像画像に映る物体の実空間上のサイズに基づいて撮像画像を処理する。撮像画像に映る物体の実空間上のサイズは、上記したように、サイズ測定部111により測定され得る。画像処理部112がどのように撮像画像を処理するかについては特に限定されない。例えば、上記したように、画像処理部112は、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像に対して仮想オブジェクトを合成することにより撮像画像を処理することができる。上記したように、仮想オブジェクトの合成は、撮像画像とは別にあらかじめ登録されている画像を撮像画像に重畳することにより行われてもよいし、撮像画像を変形することにより(例えば、撮像画像からキャプチャされた画像を撮像画像に重畳することにより)行われてもよい。
例えば、画像処理部112は、物体の実空間上のサイズとあらかじめ登録された1以上の実オブジェクトの各々のサイズとの照合結果に基づいて選択される実オブジェクト(以下、「選択オブジェクト」とも言う。)に応じた仮想オブジェクトを撮像画像に合成することができる。実オブジェクトは、特に限定されないが、例えば、人物や動物などの生き物であってもよく、自動車や家具などといった生き物以外であってもよい。1以上の実オブジェクトの各々のサイズは、記憶部120にあらかじめ登録されていてもよい。
選択オブジェクトは、物体の実空間上のサイズと1以上の実オブジェクトの各々のサイズとの間において対応する部位が存在する場合、対応する部位ごとの照合結果に基づいて選択されてもよい。より詳細には、選択オブジェクトは、対応する部位ごとの差分値の二乗の合計値が最小となる実オブジェクトであってもよい。図4には、1以上の実オブジェクトの各々のサイズとして男性用シャツの部位ごとのサイズ(x)があらかじめ登録されている例が示されている。
この例では、男性用シャツの身丈(1)が「(サイズS)66.5cm、(サイズM)69.5cm、(サイズL)72.5cm、(サイズXL)74.5cm」として登録されている。また、男性用シャツの肩幅(2)が「(サイズS)40.5cm、(サイズM)42.0cm、(サイズL)43.5cm、(サイズXL)45.5cm」として登録されている。また、男性用シャツの身幅(3)が「(サイズS)46.5cm、(サイズM)49.5cm、(サイズL)52.5cm、(サイズXL)56.5cm」として登録されている。
また、男性用シャツの袖丈(4)が「(サイズS)19.0cm、(サイズM)20.5cm、(サイズL)21.5cm、(サイズXL)22.5cm」として登録されている。また、男性用シャツの袖幅(5)が「(サイズS)18.5cm、(サイズM)19.5cm、(サイズL)20.5cm、(サイズXL)22.0cm」として登録されている。画像処理部112は、例えば、以下の式(1)に基づいて、対応する部位ごとの差分値の二乗の合計値σを算出することができる。
σ=Σ(xi−yi)・・・(1)
例として、サイズSに関してσを計算すると、
σ =(66.5cm−71.5cm)+(40.5cm−43.5cm)+(46.5cm−51.5cm)+(19.0cm−21.0cm)+(18.5cm−20.5cm)=67cmとなる。同様に、サイズM、サイズLおよびサイズXLの各々に関してσを計算すると、σ =11.5cm、σ =2.25cm、σXL =42.5cmとなる。
したがって、図4に示した例では、画像処理部112は、σが最小となるサイズのシャツとして、Lサイズのシャツを選択することができる。なお、ここでは、画像処理部112は、対応する部位ごとの差分値の二乗の合計値が最小となる実オブジェクトを選択することとしたが、対応する部位ごとの差分値の合計値が最小となる実オブジェクトを選択してもよい。
あるいは、画像処理部112は、特定の部位に関する差分値が小さい実オブジェクトを優先的に選択してもよい。このような選択を行うようにすれば、例えば、「身丈」「袖丈」などに関しては、差分値が大きいことを許容できるが、「肩幅」「身幅」「袖幅」などに関しては、差分値が大きいことを許容できないといった事情を考慮することもできる。すなわち、特定の部位は、「肩幅」「身幅」「袖幅」などであってもよい。画像処理部112は、選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成することにより撮像画像を処理することができる。
仮想オブジェクトは実オブジェクトごとに用意されていてもよい。このような場合には、例えば、選択オブジェクトに応じた仮想オブジェクトは、選択オブジェクトに関連付けられている仮想オブジェクトであってもよい。また、仮想オブジェクトは実オブジェクトごとに用意されていなくてもよい。このような場合には、例えば、選択オブジェクトに応じた仮想オブジェクトは、選択オブジェクトのサイズに合わせて調整された仮想オブジェクトであってもよい。撮像画像に合成される仮想オブジェクトのサイズは、センサ部150と物体との距離に応じて変更されてもよい。以下、画像処理部112により仮想オブジェクトが合成された後の撮像画像の例について、図5を参照しながら説明する。
図5は、画像処理装置100により生成される合成画像の例を示す図である。図5に示したように、画像処理部112は、被写体20の実空間上のサイズに基づいて選択したLサイズのシャツに応じた仮想オブジェクト31Cを、被写体21に合成することにより撮像画像131Cを得ることができる。図5を参照すれば、合成された仮想オブジェクト31Cは、被写体21のサイズに合っていることが分かる。
一方、Sサイズのシャツに応じた仮想オブジェクト31Aが被写体21に合成された場合に得られる撮像画像131Aを参照すると、仮想オブジェクト31Aは、被写体21のサイズに合っていないことが分かる。同様に、Mサイズのシャツに応じた仮想オブジェクト31Bが被写体21に合成された場合に得られる撮像画像131Bを参照しても、仮想オブジェクト31Bは、被写体21のサイズに合っていないことが分かる。XLサイズのシャツに応じた仮想オブジェクト31Dが被写体21に合成された場合に得られる撮像画像131Dを参照しても、仮想オブジェクト31Dは、被写体21のサイズに合っていないことが分かる。
(表示制御部)
画像処理部112により処理された後の撮像画像は、表示部130に表示されるように表示制御部113により表示部130が制御される。図5に示した例では、撮像画像131Cが表示部130に表示されるように表示制御部113により表示部130が制御される。
以上、図2〜5を参照しながら、本開示の実施形態に係る画像処理装置100が有する機能を説明した。以下、図6を参照しながら、本開示の実施形態に係る画像処理装置100の動作の流れの一例を説明する。
<3.画像処理装置の動作>
図6は、本開示の実施形態に係る画像処理装置100の動作の流れの一例を示すフローチャートである。なお、図6を参照しながら説明する画像処理装置100の動作は、特に、被写体20の骨格情報および深度情報に基づいて被写体のサイズを部位ごとに測定する場合における画像処理装置100の動作である。また、図6を参照しながら説明する画像処理装置100の動作は、実オブジェクトがシャツである場合についての動作である。
図6に示すように、まず、サイズ測定部111は、被写体20の骨格情報および深度情報を検出する(ステップS11)。続いて、サイズ測定部111は、骨格情報および深度情報に基づいて、実空間上の被写体20のサイズを部位ごとに測定する(ステップS12)。画像処理部112は、サイズ測定部111により測定された実空間上の被写体20のサイズと1以上のシャツの各々のサイズとの間においてユークリッド距離σを算出する(ステップS13)。
画像処理部112は、ユークリッド距離σが最小となるサイズのシャツを選択し(ステップS14)、選択したシャツの仮想オブジェクトを撮像画像に合成する(ステップS15)。仮想オブジェクトが合成された撮像画像は、表示部130に表示されるように表示制御部113により表示部130が制御されてもよい。
以上、図6を参照しながら、画像処理装置100の動作の流れの一例について説明した。
<4.むすび>
以上説明したように、本開示の実施形態によれば、撮像画像に仮想オブジェクトを合成する画像処理部を備え、画像処理部は、撮像画像に映る物体の実空間上のサイズに基づいて仮想オブジェクトを決定する、画像処理装置が提供される。かかる画像処理装置によれば、撮像画像に映る物体の実空間上のサイズを考慮して仮想オブジェクトを決定することができる。例えば、ユーザに提供できる衣装のサイズをあらかじめ登録しておけば、この衣装のサイズとユーザの実空間上のサイズとに基づいて、適切なサイズの衣装をユーザに提案することができる。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、画像処理部112を備える画像処理装置100は、サーバに備えられていてもよいし、サーバと通信可能な端末に備えられていてもよい。また、例えば、上記では、撮像画像から物体のサイズを測定する機能を、画像処理装置100が有する例を主に説明したが、かかる機能は、画像処理装置100の代わりに他の装置が有していてもよい。例えば、かかる機能は、センサ部150が有していてもよい。例えば、画像処理装置100が撮像画像を他の装置に送信した場合、他の装置は画像処理装置100の代わりに撮像画像から物体のサイズを測定してもよい。
また、例えば、上記では、表示制御部113は、画像処理装置100に備えられている例を主に説明したが、表示制御部113は、画像処理装置100の代わりに他の装置が有していてもよい。例えば、画像処理部112はサーバに備えられており、表示制御部113は端末に備えられていてもよい。例えば、サーバにより処理された撮像画像が端末に送信された場合、端末はその撮像画像が表示部130に表示されるように表示部130を制御してもよい。このように、本開示の技術は、クラウドコンピューティングにも適用することが可能である。
また、例えば、上記では、画像処理部112が、ユーザの実空間上のサイズに基づいて選択される衣装画像を撮像画像に合成する例を主に説明したが、サイズが測定される物体は特に限定されないし、撮像画像に合成される仮想オブジェクトも特に限定されない。例えば、画像処理部112は、車庫の実空間上のサイズとあらかじめ登録された1以上の自動車の各々のサイズとの照合結果に基づいて選択される自動車である選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成してもよい。これによれば、車庫の実空間上のサイズに応じた自動車をユーザに提案することができる。
また、例えば、画像処理部112は、テレビジョン装置台の実空間上のサイズとあらかじめ登録された1以上のテレビジョン装置の各々のサイズとの照合結果に基づいて選択されるテレビジョン装置である選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成してもよい。これによれば、テレビジョン装置台の実空間上のサイズに応じたテレビジョン装置をユーザに提案することができる。
また、例えば、画像処理部112は、荷物の実空間上のサイズとあらかじめ登録された1以上の入れ物の各々のサイズとの照合結果に基づいて選択される入れ物である選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成してもよい。これによれば、荷物の実空間上のサイズに応じた入れ物をユーザに提案することができる。入れ物は、鞄であってもよいし、スーツケースであってもよい。
また、例えば、画像処理部112は、撮像画像に映る壁の実空間上のサイズとあらかじめ登録された1以上の掲示物の各々のサイズとの照合結果に基づいて選択される掲示物である選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成してもよい。これによれば、壁に掲げられる掲示物をユーザに提案することができる。これらの掲示物は、絵画であってもよいし、ポスターであってもよい。
また、例えば、画像処理部112は、撮像画像に映る複数の物体間のスペースの実空間上のサイズとあらかじめ登録された1以上の物体の各々のサイズとの照合結果に基づいて選択される物体である選択オブジェクトに応じた仮想オブジェクトを撮像画像に合成してもよい。これによれば、複数の物体間のスペースに収まる物体をユーザに提案することができる。これらの物体は、家具であってもよいし、テレビジョン装置やスピーカなどの機器であってもよい。
また、例えば、上記では、画像処理部112は、撮像画像に映る物体の実空間上のサイズに基づいて、撮像画像とは別にあらかじめ登録されている画像を撮像画像に重畳することにより撮像画像に仮想オブジェクトを合成する例を主に説明したが、画像処理部112は、物体の実空間上のサイズに応じて撮像画像を変形することにより撮像画像に仮想オブジェクトを合成してもよい。画像処理部112は、物体の実空間上のサイズに応じて物体の配置を変更することにより撮像画像を変形してもよい。例えば、画像処理部112は、撮像画像に映る家具の実空間上のサイズに基づいて、その家具が撮像画像において他の複数の家具間に収まるように他の複数の家具の撮像画像における配置を変更することにより、撮像画像を変形してもよい。他の複数の家具の撮像画像における配置の変更は、例えば、撮像画像からキャプチャした他の複数の家具の画像を撮像画像に重畳することにより行われ得る。
また、例えば、画像処理部112は、撮像画像に映る荷物の実空間上のサイズに基づいて、その荷物が撮像画像において他の複数の荷物間に収まるように他の複数の荷物の撮像画像における配置を変更することにより、撮像画像を変形してもよい。他の複数の荷物の撮像画像における配置の変更は、例えば、撮像画像からキャプチャした他の複数の荷物の画像を撮像画像に重畳することにより行われ得る。これらの荷物は、トラックの荷台などに存在する場合であってもよい。そのような場合に本開示の技術が適用されれば、トラックに荷物を載せる作業の効率を向上させることができる。
また、本明細書の画像処理装置100の動作における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、画像処理装置100の動作における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、画像処理装置100に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した画像処理装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像画像に仮想オブジェクトを合成する画像処理部を備え、
前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定する、画像処理装置。
(2)
前記画像処理部は、前記物体の実空間上のサイズとあらかじめ登録された1以上の実オブジェクトの各々のサイズとの照合結果に基づいて選択される実オブジェクトである選択オブジェクトに応じた仮想オブジェクトを前記撮像画像に合成する、
前記(1)に記載の画像処理装置。
(3)
前記選択オブジェクトは、前記物体の実空間上のサイズと前記1以上の実オブジェクトの各々のサイズとの間において対応する部位が存在する場合、対応する部位ごとの照合結果に基づいて選択される、
前記(2)に記載の画像処理装置。
(4)
前記選択オブジェクトは、対応する部位ごとの差分値の二乗の合計値が最小となる実オブジェクトである、
前記(3)に記載の画像処理装置。
(5)
前記画像処理部は、前記撮像画像とは別にあらかじめ登録されている仮想オブジェクトを前記撮像画像に重畳することにより撮像画像に仮想オブジェクトを合成する、
前記(2)〜(4)のいずれか一項に記載の画像処理装置。
(6)
前記画像処理部は、前記物体の実空間上のサイズに応じて前記撮像画像を変形することにより前記撮像画像に前記仮想オブジェクトを合成する、
前記(1)に記載の画像処理装置。
(7)
前記画像処理部は、前記物体の実空間上のサイズに応じて前記撮像画像に映る他の物体の配置を変更することにより前記撮像画像を変形する、
前記(6)に記載の画像処理装置。
(8)
前記画像処理装置は、
前記撮像画像に映る物体の実空間上のサイズを測定するサイズ測定部をさらに備える、
前記(1)に記載の画像処理装置。
(9)
前記画像処理装置は、
前記画像処理部により処理された前記仮想オブジェクトが合成された後の画像が表示部に表示されるように前記表示部を制御する表示制御部をさらに備える、
前記(1)に記載の画像処理装置。
(10)
撮像画像に映る物体の実空間上のサイズに基づいて、前記撮像画像に合成される仮想オブジェクトを決定すること、
を含む、画像処理方法。
(11)
コンピュータを、
撮像画像に仮想オブジェクトを合成する画像処理部を備え、
前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定する画像処理装置として機能させるためのプログラム。
10 画像処理システム
31A〜31D 仮想オブジェクト
100 画像処理装置
110 制御部
111 サイズ測定部
112 画像処理部
113 表示制御部
120 記憶部
130 表示部
131(131A〜131D) 撮像画像
140 撮像部
150 センサ部

Claims (9)

  1. 撮像画像に仮想オブジェクトを合成する画像処理部を備え、
    前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定し、
    前記画像処理部は、前記物体の実空間上のサイズに応じて前記撮像画像を変形することにより前記撮像画像に前記仮想オブジェクトを合成する、
    画像処理装置。
  2. 前記画像処理部は、前記物体の実空間上のサイズに応じて前記撮像画像に映る他の物体の配置を変更することにより前記撮像画像を変形する、
    請求項に記載の画像処理装置。
  3. 前記画像処理部は、前記物体の実空間上のサイズとあらかじめ登録された1以上の実オブジェクトの各々のサイズとの照合結果に基づいて選択される実オブジェクトである選択オブジェクトに応じた仮想オブジェクトを前記撮像画像に合成する、
    請求項1に記載の画像処理装置。
  4. 前記選択オブジェクトは、前記物体の実空間上のサイズと前記1以上の実オブジェクトの各々のサイズとの間において対応する部位が存在する場合、対応する部位ごとの照合結果に基づいて選択される、
    請求項に記載の画像処理装置。
  5. 前記画像処理部は、前記撮像画像とは別にあらかじめ登録されている仮想オブジェクトを前記撮像画像に重畳することにより撮像画像に仮想オブジェクトを合成する、
    請求項に記載の画像処理装置。
  6. 前記画像処理装置は、
    前記撮像画像に映る物体の実空間上のサイズを測定するサイズ測定部をさらに備える、
    請求項1に記載の画像処理装置。
  7. 前記画像処理装置は、
    前記画像処理部により処理された前記仮想オブジェクトが合成された後の画像が表示部に表示されるように前記表示部を制御する表示制御部をさらに備える、
    請求項1に記載の画像処理装置。
  8. 撮像画像に映る物体の実空間上のサイズに基づいて、前記撮像画像に合成される仮想オブジェクトを決定することと、
    前記物体の実空間上のサイズに応じて前記撮像画像を変形することにより前記撮像画像に前記仮想オブジェクトを合成することと、
    を含む、画像処理方法。
  9. コンピュータを、
    撮像画像に仮想オブジェクトを合成する画像処理部を備え、
    前記画像処理部は、前記撮像画像に映る物体の実空間上のサイズに基づいて前記仮想オブジェクトを決定し、
    前記画像処理部は、前記物体の実空間上のサイズに応じて前記撮像画像を変形することにより前記撮像画像に前記仮想オブジェクトを合成する、画像処理装置として機能させるためのプログラム。
JP2011242012A 2011-11-04 2011-11-04 画像処理装置、画像処理方法およびプログラム Active JP5874325B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011242012A JP5874325B2 (ja) 2011-11-04 2011-11-04 画像処理装置、画像処理方法およびプログラム
US13/596,275 US20130113826A1 (en) 2011-11-04 2012-08-28 Image processing apparatus, image processing method, and program
CN2012104173956A CN103198460A (zh) 2011-11-04 2012-10-26 图像处理设备、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242012A JP5874325B2 (ja) 2011-11-04 2011-11-04 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2013097699A JP2013097699A (ja) 2013-05-20
JP2013097699A5 JP2013097699A5 (ja) 2014-12-04
JP5874325B2 true JP5874325B2 (ja) 2016-03-02

Family

ID=48223404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242012A Active JP5874325B2 (ja) 2011-11-04 2011-11-04 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20130113826A1 (ja)
JP (1) JP5874325B2 (ja)
CN (1) CN103198460A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9033795B2 (en) * 2012-02-07 2015-05-19 Krew Game Studios LLC Interactive music game
US20140081599A1 (en) * 2012-09-19 2014-03-20 Josh Bradley Visualizing dimensions and usage of a space
KR101565472B1 (ko) * 2013-05-24 2015-11-03 주식회사 골프존 골프 스윙에 대한 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프 스윙에 대한 정보 처리방법
EP3005300A4 (en) * 2013-06-06 2016-05-25 Ericsson Telefon Ab L M COMBINATION OF A DIGITAL IMAGE WITH A VIRTUAL UNIT
JP6341646B2 (ja) 2013-10-17 2018-06-13 セーレン株式会社 試着支援装置及び方法
KR102163728B1 (ko) * 2013-12-05 2020-10-08 삼성전자주식회사 거리영상 측정용 카메라 및 이를 이용한 거리영상 측정방법
KR101709279B1 (ko) * 2015-01-21 2017-02-23 주식회사 포워드벤처스 쇼핑 서비스 제공 시스템 및 쇼핑 서비스 제공 방법
US10489979B2 (en) * 2016-12-30 2019-11-26 Facebook, Inc. Systems and methods for providing nested content items associated with virtual content items
US10950055B2 (en) 2018-11-03 2021-03-16 Facebook Technologies, Llc Video game controlled by player motion tracking
US10780349B2 (en) 2018-11-03 2020-09-22 Facebook Technologies, Llc Virtual reality collision interpretation
US11048926B2 (en) * 2019-08-05 2021-06-29 Litemaze Technology (Shenzhen) Co. Ltd. Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2280812A1 (en) * 1997-02-13 1998-08-20 Rodney Brenneman Percutaneous and hiatal devices and methods for use in minimally invasive pelvic surgery
JP2002297971A (ja) * 2001-01-24 2002-10-11 Sony Computer Entertainment Inc 電子商取引システム、商品適合判定装置及び方法
JP2005537571A (ja) * 2002-08-29 2005-12-08 ユナイテッド ステイツ ポスタル サービス 処理中の郵便物の郵送料を再評価するシステム及び方法
JP4423929B2 (ja) * 2003-10-31 2010-03-03 カシオ計算機株式会社 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
US7487116B2 (en) * 2005-12-01 2009-02-03 International Business Machines Corporation Consumer representation rendering with selected merchandise
US7457730B2 (en) * 2005-12-15 2008-11-25 Degnan Donald A Method and system for virtual decoration
US20070234461A1 (en) * 2006-04-04 2007-10-11 Eldred Shellie R Plus-sized clothing for children
CN1870049A (zh) * 2006-06-15 2006-11-29 西安交通大学 基于稠密特征对应与形态学的人脸表情合成方法
US8036416B2 (en) * 2007-11-06 2011-10-11 Palo Alto Research Center Incorporated Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion
JP5439787B2 (ja) * 2008-09-30 2014-03-12 カシオ計算機株式会社 カメラ装置
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
JP5429713B2 (ja) * 2010-03-19 2014-02-26 国際航業株式会社 商品選択システム
NL1037949C2 (nl) * 2010-05-10 2011-11-14 Suitsupply B V Werkwijze voor het op afstand bepalen van kledingmaten.
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
US8711175B2 (en) * 2010-11-24 2014-04-29 Modiface Inc. Method and system for simulating superimposition of a non-linearly stretchable object upon a base object using representative images
AU2012223717A1 (en) * 2011-02-28 2013-10-10 Facecake Marketing Technologies, Inc. Real-time virtual reflection
US8668498B2 (en) * 2011-03-08 2014-03-11 Bank Of America Corporation Real-time video image analysis for providing virtual interior design
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance

Also Published As

Publication number Publication date
CN103198460A (zh) 2013-07-10
JP2013097699A (ja) 2013-05-20
US20130113826A1 (en) 2013-05-09

Similar Documents

Publication Publication Date Title
JP5874325B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9865094B2 (en) Information processing apparatus, display control method, and program
JP5845830B2 (ja) 情報処理装置、表示制御方法、およびプログラム
JP5791812B2 (ja) 衣服画像処理装置、衣服画像表示方法、およびプログラム
JP5799521B2 (ja) 情報処理装置、オーサリング方法及びプログラム
US10720122B2 (en) Image processing apparatus and image processing method
US10204404B2 (en) Image processing device and image processing method
JP2013101529A (ja) 情報処理装置、表示制御方法、およびプログラム
CN105556508A (zh) 虚拟镜子的装置、系统和方法
JP5668587B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20170277943A1 (en) Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method
WO2022009301A1 (ja) 画像処理装置、画像処理方法、及びプログラム
Kapgate et al. Human following robot using kinect in embedded platform
TWI773863B (zh) 自助結帳系統、方法與裝置
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
Cheng et al. Design and implementation of prototype service robot for shopping in a supermarket
WO2021255846A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016508252A5 (ja)
US11803615B2 (en) Generating 3D training data from 2D images
TW201248518A (en) Image recognition method
CN113228117B (zh) 创作装置、创作方法和记录有创作程序的记录介质
WO2023084778A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US11010422B2 (en) Image display system, image display method, and image display program
JP6597277B2 (ja) 投影装置、投影方法及び投影用コンピュータプログラム
JP2022159930A (ja) 監視カメラ設置支援システム、監視カメラ設置支援装置、及び監視カメラ設置支援プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R151 Written notification of patent or utility model registration

Ref document number: 5874325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250