JP2013118468A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2013118468A
JP2013118468A JP2011264444A JP2011264444A JP2013118468A JP 2013118468 A JP2013118468 A JP 2013118468A JP 2011264444 A JP2011264444 A JP 2011264444A JP 2011264444 A JP2011264444 A JP 2011264444A JP 2013118468 A JP2013118468 A JP 2013118468A
Authority
JP
Japan
Prior art keywords
image
depth
subject
depth information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011264444A
Other languages
English (en)
Inventor
Atsushi Shionozaki
敦 塩野崎
Junichi Rekimoto
純一 暦本
Futoshi Goto
太 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011264444A priority Critical patent/JP2013118468A/ja
Priority to CN2012104830144A priority patent/CN103136746A/zh
Priority to US13/684,949 priority patent/US9406139B2/en
Publication of JP2013118468A publication Critical patent/JP2013118468A/ja
Priority to US15/193,388 priority patent/US10540805B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】被写体が適切な範囲内に存在するか否かを分かり易く伝えるための画像処理装置および画像処理方法を提供する。
【解決手段】撮像画像に含まれる被写体の深度情報を取得する深度取得部と、前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成する画像合成部と、前記被写体の深度情報に応じてエフェクト処理を実行するエフェクト処理部と、を備える、画像処理装置。
【選択図】図4

Description

本開示は、画像処理装置および画像処理方法に関する。
近日、撮像画像を処理する画像処理装置が広く普及している。例えば、特許文献1には、撮像画像から被写体を抽出し、被写体と他の画像オブジェクトと合成する画像処理装置が開示されている。
特開2006−128754号公報
上記のように被写体と他の画像オブジェクトを合成する際には、被写体が他の画像オブジェクトに対して適切な範囲内に存在することが望ましい。例えば、画像オブジェクトが有名人の画像オブジェクトである場合、被写体が有名人と並んで見えるように、被写体の深度が有名人の画像オブジェクトの深度と近いことが望まれる。
しかし、被写体と画像オブジェクトの合成画像を一見しただけでは、被写体が画像オブジェクトに対して適切な深度範囲内に存在しているか否かを把握することが困難な場合がある。例えば、小さい被写体が浅い深度に存在する場合と、大きい被写体が深い深度に存在する場合とでは、合成画像における被写体の大きさに大差が無いので、合成画像における被写体の大きさで被写体が適切な深度範囲内に存在しているか否かを判断することは困難である。
そこで、本開示では、被写体が適切な範囲内に存在するか否かを分かり易く伝えることが可能な、新規かつ改良された画像処理装置および画像処理方法を提案する。
本開示によれば、撮像画像に含まれる被写体の深度情報を取得する深度取得部と、前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成する画像合成部と、前記被写体の深度情報に応じてエフェクト処理を実行するエフェクト処理部と、を備える画像処理装置が提供される。
また、本開示によれば、撮像画像に含まれる被写体の深度情報を取得することと、前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成することと、前記被写体の深度情報に応じてエフェクト処理を実行することと、を含む画像処理方法が提供される。
以上説明したように本開示によれば、被写体が適切な範囲内に存在するか否かを分かり易く伝えることができる。
本開示の実施形態による画像処理システムの構成を示した説明図である。 撮像画像からの人物画像の抽出を示した説明図である。 人物画像の合成処理を示した説明図である。 本開示の実施形態による画像処理装置20の構成を示した機能ブロック図である。 被写体の適切な深度範囲を示した説明図である。 人物画像の深度が深過ぎる場合の合成画像を示した説明図である。 人物画像の深度が浅過ぎる場合の合成画像を示した説明図である。 人物画像と前景オブジェクトが離れている場合の合成画像を示した説明図である。 本開示の実施形態による画像処理システムの動作を示したフローチャートである。 画像処理装置20のハードウェア構成例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って本開示を説明する。
1.画像処理システムの基本構成
2.画像処理装置の構成
3.画像処理システムの動作
4.ハードウェア構成
5.むすび
<1.画像処理システムの基本構成>
本開示による技術は、一例として以下に説明するように、多様な形態で実施され得る。また、本開示の実施形態による画像処理装置は、
A.撮像画像に含まれる被写体の深度情報を取得する深度取得部(通信部220)と、
B.前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成する画像合成部(250)と、
C.前記被写体の深度情報に応じてエフェクト処理を実行するエフェクト処理部(260)と、
を備える。
以下では、まず、このような画像処理装置を含む画像処理システムの基本構成について図1〜図3を参照して説明する。
図1は、本開示の実施形態による画像処理システムの構成を示した説明図である。図1に示したように、本開示の実施形態による画像処理システムは、撮像装置10と、画像処理装置20と、を備える。
(撮像装置)
撮像装置10は、被写体を撮像して撮像画像を取得する。具体的には、撮像装置10は、撮影レンズおよびズームレンズなどの撮影光学系、および、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える。
撮影光学系は、被写体から発せられる光を集光して、撮影素子の撮像面に被写体像を形成する。撮像素子は、撮影光学系によって形成された被写体像を電気的な画像信号に変換する。ここで、撮像素子は、R成分(赤色)受光素子、G成分(緑色)受光素子、およびB成分(青色)受光素子からなり、各受光素子の作用によりRGB情報からなる撮像画像が得られる。
また、本開示の実施形態による撮像装置10は、撮像装置10と被写体との距離を表わす深度情報を取得する。この深度情報は、撮像画像におけるピクセル単位で取得することが可能である。
さらに、撮像装置10は、上記の深度情報に基づき、撮像画像から被写体を認識して、被写体の画像部分を抽出する。例えば、撮像装置10は、深度情報や人間の骨格情報などに基づいて撮像画像から人物画像を抽出する。そして、撮像装置10は、抽出した人物画像を深度情報と共に画像処理装置20に送信する。以下、この点について図2を参照して具体的に説明する。
図2は、撮像画像からの人物画像の抽出を示した説明図である。図2に示した撮像画像70は、人物画像82および背景画像を含む。ここで、人物画像82の領域と背景画像の領域は深度に差があるので、撮像装置10は、撮像画像70の各ピクセルの深度分布に基づいて人物画像の候補を抽出し、さらに、人間の骨格パターンに合致する候補を人物画像として決定してもよい。これにより、図2に示した処理画像72のように、撮像画像70から人物画像82を抽出することができる。
なお、本明細書においては被写体が人物である例を説明するが、被写体は人物に限定されない。例えば、被写体は、花や動物のような他のオブジェクトであってもよい。また、上記では深度情報に基づいて撮像画像から人物画像を抽出する例を説明したが、パターンマッチング人物の画像認識により人物画像を抽出することも可能である。
(画像処理装置)
画像処理装置20は、撮像装置10から人物画像および当該人物画像の深度情報を受信し、深度情報を用いて、人物画像を他の画像オブジェクトと合成する。例えば、画像処理装置20は、人物画像に、背景画像および前景画像を合成する。以下、この点について図3を参照して具体的に説明する。
図3は、人物画像の合成処理を示した説明図である。図3に示したように、画像処理装置20は、背景画像74と、前景オブジェクト84として有名人を含む前景画像76と、人物画像82を含む処理画像72とを合成して、合成画像90を生成する。ここで、前景オブジェクト84は深度情報を有するので、画像処理装置20は、前景オブジェクト84と人物画像82の深度情報に基づき、前景オブジェクト84と人物画像82の前後関係を表現することが可能である。
このように、撮像装置10により撮像した人物を他の画像オブジェクトと合成することにより、当該人物があたかも他の空間に存在しているかのような合成画像を得ることができる。
なお、図1においては画像処理装置20の一例としてPC(Personal Computer)を示しているが、画像処理装置20はPCに限定されない。例えば、画像処理装置20は、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また、画像処理装置20は、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。
また、上記では人物画像82の抽出を撮像装置10で行う例を説明したが、人物画像82の抽出は画像処理装置20で行うことも可能である。さらに、上述した画像処理装置20の機能を撮像装置10に実装し、撮像装置10を画像処理装置として機能させることも可能である。
(本開示の着眼点)
ところで、上記のように人物画像82と有名人の前景オブジェクト84を合成する場合、人物が有名人と並んで見えるためには、人物画像82の深度が有名人の前景オブジェクト84の深度と近いことが望まれる。
しかし、被写体と画像オブジェクトの合成画像を一見しただけでは、被写体が画像オブジェクトに対して適切な深度範囲内に存在しているか否かを把握することが困難な場合がある。例えば、小さい被写体が浅い深度に存在する場合と、大きい被写体が深い深度に存在する場合とでは、合成画像における被写体の大きさに大差が無いので、合成画像における被写体の大きさで被写体が適切な深度範囲内に存在しているか否かを判断することは困難である。
そこで、上記事情を一着眼点にして本開示の実施形態を創作するに至った。本開示の実施形態によれば、被写体が適切な範囲内に存在するか否かを分かり易く伝えることが可能である。以下、このような本開示の実施形態による画像処理装置20について詳細に説明する。
<2.画像処理装置の構成>
図4は、本開示の実施形態による画像処理装置20の構成を示した機能ブロック図である。図4に示したように、本開示の実施形態による画像処理装置20は、通信部220と、記憶部230と、表示部240と、画像合成部250と、エフェクト処理部260と、を備える。
通信部220は、撮像装置10とのインタフェースであって、撮像装置10から人物画像や当該人物画像の深度情報を受信する。なお、通信部220は、撮像装置10と無線で接続されてもよいし、有線で接続されてもよい。
記憶部230は、人物画像と合成するための背景画像および前景画像を記憶する記憶媒体である。より詳細には、前景画像に含まれる前景オブジェクトには深度情報が設定されている。深度情報は、前景オブジェクトを構成するピクセルごとに設定されていてもよいが、本明細書においては、前景オブジェクトに1の代表的な深度情報が設定されている場合を主に想定する。なお、記憶部230は、画像合成部250によって生成された合成画像を記憶してもよい。
このような記憶部230は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。不揮発性メモリとしては、例えば、フラッシュメモリ、SDカード、マイクロSDカード、USBメモリ、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable ROM)があげられる。また、磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc)、DVD(Digital Versatile Disc)およびBD(Blu−Ray Disc(登録商標))などがあげられる。
表示部240は、画像合成部250によって生成された合成画像を表示する。この合成画像は、撮像によって得られた人物画像と、仮想的な背景画像および前景画像との合成画像であるので、ユーザは、表示部240に表示された合成画像を視認することにより、実際と異なる空間にいる感覚を味わうことができる。
画像合成部250は、通信部220によって受信された人物画像を、記憶部230に記憶されている背景画像および前景画像と合成する。なお、合成する背景画像および前景画像はユーザ操作によって選択されてもよい。また、背景画像および前景画像は、記憶部230でなく、ネットワーク上のサーバのような外部装置から供給されてもよい。
ここで、画像合成部250は、人物画像を構成するピクセルごとに、人物画像の深度情報と前景画像に含まれる前景オブジェクトの深度情報とに基づいて人物画像と前景オブジェクトの前後関係を表現する。これにより、図3に示したように、臨場感のある合成画像を生成することが可能となる。なお、前景オブジェクトは静止画であってもよいし、動画であってもよい。前景オブジェクトが動画である場合、前景オブジェクトの深度情報は前景オブジェクトの移動により変化する。
エフェクト処理部260は、画像合成部250による合成画像の生成に際し、人物画像の深度が適切な範囲内でない場合にエフェクト処理を実行する。これにより、人物が適切な深度範囲内に存在するか否かを分かり易く、かつ、直観的に理解できるように伝えることが可能となる。以下、適切な深度範囲やエフェクト処理についてより具体的に説明する。
(適切な深度範囲)
図3に示したように、人物が有名人と並んで見えるためには、人物画像の深度が有名人の前景オブジェクトの深度と近いことが望まれる。すなわち、人物画像の深度が前景オブジェクトの深度を基準とする所定範囲内であることが適切である。このため、エフェクト処理部260は、図5に示したように、前景オブジェクトから閾値Dth未満の範囲を適切な深度範囲として扱ってもよい。
なお、図5においては、前景オブジェクトの前側の閾値と後ろ側の閾値として同一の閾値Dthを示しているが、前側の閾値と後ろ側の閾値は異なってもよい。また、閾値Dthは、前景画像によって異なる値であってもよい。例えば、前景オブジェクトの深度が深い場合には、前景オブジェクトの深度が浅い場合に比べて、同一の深度差による影響が小さい。このため、エフェクト処理部260は、前景オブジェクトの深度が深いほど閾値Dthを大きな値に設定してもよい。
(エフェクト処理)
エフェクト処理部260は、人物画像の深度が上述した適切な深度範囲内である場合、すなわち、人物画像の深度と前景オブジェクトの深度の差分が閾値Dth未満である場合、エフェクト処理を行わない。一方、エフェクト処理部260は、人物画像の深度が上述した適切な深度範囲外である場合、すなわち、人物画像の深度と前景オブジェクトの深度の差分が閾値Dth以上である場合、人物が適切な深度範囲内に存在しないことを伝えるためのエフェクト処理を実行する。以下、エフェクト処理の具体例を説明する。
図6は、人物画像の深度が深過ぎる場合の合成画像92を示した説明図である。図6に示した合成画像92のように、人物画像85の深度が前景オブジェクト84の深度より閾値Dth以上深い場合、エフェクト処理部260は、人物画像85にアルファ処理を施すことにより人物画像85を半透明にする。また、エフェクト処理部260は、図6に示したように、注意喚起のためのアラームマーク88を合成画像92に追加する。
なお、エフェクト処理部260は、人物画像の各ピクセルの深度の平均値や、胴体部分の深度を代表深度として扱い、当該人物画像の代表深度と、前景オブジェクトの深度を比較することにより、人物画像に対して一律的なエフェクト処理を施してもよい。
または、エフェクト処理部260は、人物画像のピクセル単位で人物画像の深度と前景オブジェクトの深度を比較してもよい。この場合、人物の一部分のみにアルファ処理が施され得る。
図7は、人物画像の深度が浅過ぎる場合の合成画像94を示した説明図である。図7に示した合成画像94のように、人物画像86の深度が前景オブジェクト84の深度より閾値Dth以上浅い場合、エフェクト処理部260は、人物画像85にアルファ処理を施すことにより人物画像85を半透明にしてもよい。また、エフェクト処理部260は、図7に示したように、注意喚起のためのアラームマーク88を合成画像92に追加してもよい。
これら合成画像92や合成画像94の視認により、被写体である人物が不適切な深度位置に存在することを直感的に把握し、立ち位置を調整することが期待される。
なお、エフェクト処理部260は、人物画像の深度と前景オブジェクトの深度の差分が閾値Dth以上である場合、人物画像の深度と前景オブジェクトの深度の差分が大きいほど強いアルファ処理を施してもよい。かかる構成により、被写体である人物は、現在の深度位置と適切な深度範囲との相違の程度をアルファ処理の強さから認識することが可能となる。
また、上記ではエフェクト処理としてアルファ処理やアラームマーク88の追加を説明したが、エフェクト処理はかかる例に限定されない。例えば、エフェクト処理は、人物画像の点滅、輪郭線の強調、色合いの変化(例えば、白黒化)、ぼかし処理、または注意メッセージの追加などであってもよい。
(応用例)
なお、上記では、前景オブジェクトが1つである例を説明したが、本開示の実施形態は、前景オブジェクトが複数存在する場合にも適用可能である。この場合、エフェクト処理部260は、いずれかの前景オブジェクトの深度情報のみに着目してもよいし、複数の前景オブジェクトの深度情報に着目してもよい。エフェクト処理部260は、複数の前景オブジェクトの深度情報に着目する場合、いずれかの前景オブジェクトの深度と人物画像の深度の差分が閾値Dth以上である場合にエフェクト処理を施してもよいし、複数の前景オブジェクトの深度と人物画像の深度の差分が閾値Dth以上である場合にエフェクト処理を施してもよい。
(補足)
また、上記では、人物が適切な深度範囲内に存在しないことを伝えるためにエフェクト処理を施す例を説明したが、エフェクト処理部260は、合成画像において人物画像と前景オブジェクトが所定距離より離れている場合にエフェクト処理を施してもよい。
図8は、人物画像と前景オブジェクトが離れている場合の合成画像96を示した説明図である。図8に示した合成画像96のように、人物画像82が前景オブジェクト84から離れている場合、エフェクト処理部260は、アラームマーク88、および人物の移動を誘導する矢印画像89を追加してもよい。これにより、被写体である人物が適切な位置に移動することが期待される。
<3.画像処理システムの動作>
以上、本開示の実施形態による画像処理装置20の構成を説明した。続いて、図9を参照し、本開示の実施形態による画像処理システムの動作を整理する。
図9は、本開示の実施形態による画像処理システムの動作を示したフローチャートである。図9に示したように、まず、撮像装置10が被写体である人物を撮像してRGB情報からなる撮像画像を取得する(S304)。また、撮像装置10は、撮像画像における各ピクセルの深度情報を併せて取得する(S308)。
そして、撮像装置10は、撮像画像における各ピクセルの深度情報に基づいて撮像画像から人物の画像部分を認識し、人物画像を抽出する(S312)。その後、撮像装置10は、抽出した人物画像、および当該人物画像の深度情報を画像処理装置20に送信する。
一方、画像処理装置20の画像合成部250は、まず、例えば記憶部230から読み出した背景画像および前景画像を描画する(S316、S320)。その後、画像合成部250は、エフェクト処理部260と協働して、人物画像を構成するピクセルごとにS324〜S340の各処理を行う。
具体的には、画像合成部250が、人物画像のピクセルに対応する前景画像のピクセルが前景オブジェクトであるか否かを判断する(S324)。そして、前景画像のピクセルが前景オブジェクトである場合にはS328の処理に進み、前景オブジェクトでない場合にはS332の処理に進む。
S328においては、画像合成部250が、人物画像のピクセルの深度が前景オブジェクトの深度以上であるか否かを判断する。人物画像のピクセルの深度が前景オブジェクトの深度以上である場合、当該人物画像のピクセルは描画されない。一方、人物画像のピクセルの深度が前景オブジェクトの深度未満である場合にはS332の処理に進む。
S332においては、エフェクト処理部260が、人物画像のピクセルの深度と前景オブジェクトの深度の差分が閾値Dth未満であるか否かを判断する(S332)。そして、人物画像のピクセルの深度と前景オブジェクトの深度の差分が閾値Dth以上である場合、画像合成部250が人物画像のピクセルを通常通りに描画する(S336)。一方、人物画像のピクセルの深度と前景オブジェクトの深度の差分が閾値Dth未満である場合、エフェクト処理部260が人物画像のピクセルにアルファ処理を施し、アルファ処理が施されたピクセルを画像合成部250が描画する(S340)。
<4.ハードウェア構成>
以上、本開示の実施形態による画像処理装置20による画像処理について説明した。上述した画像処理装置20による画像処理は、ソフトウェアと、画像処理装置20が備えるハードウェアとの協働により実現される。以下、図10を参照し、画像処理装置20のハードウェア構成例を説明する。
図10は、画像処理装置20のハードウェア構成例を示した説明図である。図10に示したように、画像処理装置20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、画像処理装置20は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、通信装置215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。画像処理装置20のユーザは、該入力装置208を操作することにより、画像処理装置20に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置210は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置210は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
ストレージ装置211は、本実施形態にかかる画像処理装置20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置211は、ハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、画像処理装置20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
通信装置215は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<5.むすび>
以上説明したように、本開示の実施形態による画像処理装置20は、前景オブジェクトを含む前景画像、背景画像および撮像により得られた人物画像の合成に際し、人物画像の深度と前景オブジェクトの深度の差分が閾値Dth以上である場合、人物が適切な深度範囲内に存在しないことを伝えるためのエフェクト処理を実行する。かかる構成により、被写体である人物が適切な深度範囲内に存在するか否かを分かり易く、かつ、直観的に理解できるように伝えることが可能となる。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、本明細書の撮像装置10および画像処理装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、撮像装置10および画像処理装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、撮像装置10および画像処理装置20に内蔵されるCPU201、ROM202およびRAM203などのハードウェアを、上述した撮像装置10および画像処理装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
また、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像画像に含まれる被写体の深度情報を取得する深度取得部と、
前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成する画像合成部と、
前記被写体の深度情報に応じてエフェクト処理を実行するエフェクト処理部と、
を備える、画像処理装置。
(2)
前記エフェクト処理部は、前記画像オブジェクトの深度情報と、前記被写体の深度情報の関係に応じてエフェクト処理を実行する、前記(1)に記載の画像処理装置。
(3)
前記エフェクト処理部は、前記被写体の深度情報と前記画像オブジェクトの深度情報との差分が閾値以上である場合に前記エフェクト処理を実行する、前記(2)に記載の画像処理装置。
(4)
前記エフェクト処理部は、前記被写体の深度情報と前記画像オブジェクトの深度情報との差分が大きいほど強いエフェクト処理を実行する、前記(3)に記載の画像処理装置。
(5)
前記エフェクト処理部は、さらに、前記画像合成部によって得られた合成画像における前記画像オブジェクトと前記被写体の位置関係に応じてエフェクト処理を実行する、前記(1)〜(4)のいずれか一項に記載の画像処理装置。
(6)
前記エフェクト処理部は、前記被写体を構成する各ピクセルに、各ピクセルの深度情報に応じてエフェクト処理を実行する、前記(1)〜(5)のいずれか一項に記載の画像処理装置。
(7)
撮像画像に含まれる被写体の深度情報を取得することと、
前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成することと、
前記被写体の深度情報に応じてエフェクト処理を実行することと、
を含む、画像処理方法。
10 撮像装置
12 通信網
20 画像処理装置
220 通信部
230 記憶部
240 表示部
250 画像合成部
260 エフェクト処理部

Claims (7)

  1. 撮像画像に含まれる被写体の深度情報を取得する深度取得部と、
    前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成する画像合成部と、
    前記被写体の深度情報に応じてエフェクト処理を実行するエフェクト処理部と、
    を備える、画像処理装置。
  2. 前記エフェクト処理部は、前記画像オブジェクトの深度情報と、前記被写体の深度情報の関係に応じてエフェクト処理を実行する、請求項1に記載の画像処理装置。
  3. 前記エフェクト処理部は、前記被写体の深度情報と前記画像オブジェクトの深度情報との差分が閾値以上である場合に前記エフェクト処理を実行する、請求項2に記載の画像処理装置。
  4. 前記エフェクト処理部は、前記被写体の深度情報と前記画像オブジェクトの深度情報との差分が大きいほど強いエフェクト処理を実行する、請求項3に記載の画像処理装置。
  5. 前記エフェクト処理部は、さらに、前記画像合成部によって得られた合成画像における前記画像オブジェクトと前記被写体の位置関係に応じてエフェクト処理を実行する、請求項1に記載の画像処理装置。
  6. 前記エフェクト処理部は、前記被写体を構成する各ピクセルに、各ピクセルの深度情報に応じてエフェクト処理を実行する、請求項1に記載の画像処理装置。
  7. 撮像画像に含まれる被写体の深度情報を取得することと、
    前記被写体および深度情報を有する画像オブジェクトを各々の深度情報に従って合成することと、
    前記被写体の深度情報に応じてエフェクト処理を実行することと、
    を含む、画像処理方法。



JP2011264444A 2011-12-02 2011-12-02 画像処理装置および画像処理方法 Pending JP2013118468A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011264444A JP2013118468A (ja) 2011-12-02 2011-12-02 画像処理装置および画像処理方法
CN2012104830144A CN103136746A (zh) 2011-12-02 2012-11-23 图像处理装置和图像处理方法
US13/684,949 US9406139B2 (en) 2011-12-02 2012-11-26 Image processing device and image processing method
US15/193,388 US10540805B2 (en) 2011-12-02 2016-06-27 Control of display of composite image based on depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264444A JP2013118468A (ja) 2011-12-02 2011-12-02 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2013118468A true JP2013118468A (ja) 2013-06-13

Family

ID=48496537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264444A Pending JP2013118468A (ja) 2011-12-02 2011-12-02 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (2) US9406139B2 (ja)
JP (1) JP2013118468A (ja)
CN (1) CN103136746A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116117A (ja) * 2014-12-16 2016-06-23 大日本印刷株式会社 画像プリント装置、システム及び方法
CN106443980A (zh) * 2016-12-16 2017-02-22 福建福光股份有限公司 紧凑型广角高分辨率空间目标探测镜头
JP2018117276A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
JP2019121216A (ja) * 2018-01-09 2019-07-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2019230225A1 (ja) * 2018-05-29 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2020513123A (ja) * 2017-03-30 2020-04-30 スノー コーポレーション イメージに動的エフェクトを適用する方法および装置
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US11153552B2 (en) 2018-06-29 2021-10-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and non-transitory computer-readable storage medium

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
CN104427291B (zh) * 2013-08-19 2018-09-28 华为技术有限公司 一种图像处理方法及设备
US9414016B2 (en) 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
TWI602437B (zh) * 2015-01-12 2017-10-11 仁寶電腦工業股份有限公司 視訊與音訊處理裝置及其視訊會議系統
TWI567476B (zh) * 2015-03-13 2017-01-21 鈺立微電子股份有限公司 影像處理裝置與影像處理方法
US10068147B2 (en) * 2015-04-30 2018-09-04 Samsung Electronics Co., Ltd. System and method for insertion of photograph taker into a photograph
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US9569830B2 (en) * 2015-07-03 2017-02-14 Mediatek Inc. Image processing method and electronic apparatus with image processing mechanism
US9607397B2 (en) 2015-09-01 2017-03-28 Personify, Inc. Methods and systems for generating a user-hair-color model
WO2017039348A1 (en) * 2015-09-01 2017-03-09 Samsung Electronics Co., Ltd. Image capturing apparatus and operating method thereof
ITUB20153347A1 (it) 2015-09-02 2017-03-02 Stefano Spattini Apparato per la videocomunicazione
AU2015275252A1 (en) * 2015-12-22 2017-07-06 Canon Kabushiki Kaisha Systems and method to modify display of augmented reality content
DE102016105544A1 (de) 2016-03-24 2017-09-28 Epcos Ag Vorrichtung zur Messung eines Zustands eines elektrischen Schalters, elektrischer Schalter und Verfahren zur Messung eines Zustands eines elektrischen Schalters
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
CN106373153A (zh) * 2016-09-23 2017-02-01 邹建成 一种基于阵列镜头的3d图像替换技术
CN107958446B (zh) * 2016-10-17 2023-04-07 索尼公司 信息处理设备和信息处理方法
US9881207B1 (en) 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
TWI617969B (zh) * 2016-11-24 2018-03-11 新加坡商雲網科技新加坡有限公司 畫面控制方法及使用者終端
CN107194958A (zh) * 2017-05-25 2017-09-22 深圳市金立通信设备有限公司 一种图像处理的方法、终端及计算机可读存储介质
CN107509043B (zh) * 2017-09-11 2020-06-05 Oppo广东移动通信有限公司 图像处理方法、装置、电子装置及计算机可读存储介质
CN107529020B (zh) * 2017-09-11 2020-10-13 Oppo广东移动通信有限公司 图像处理方法及装置、电子装置和计算机可读存储介质
US10504264B1 (en) * 2018-11-06 2019-12-10 Eric Koenig Method and system for combining images
US11170579B2 (en) * 2019-04-09 2021-11-09 Microsoft Technology Licensing, Llc Hybrid rendering
US11223855B2 (en) * 2019-09-18 2022-01-11 Loop Now Technologies Inc. System and method of real-time video overlaying or superimposing display
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195138A (ja) * 1998-01-06 1999-07-21 Sharp Corp 画像処理装置
US6747642B1 (en) * 1999-01-29 2004-06-08 Nintendo Co., Ltd. Method and apparatus for providing non-photorealistic cartoon outlining within a 3D videographics system
US6809745B1 (en) * 2001-10-01 2004-10-26 Adobe Systems Incorporated Compositing two-dimensional and 3-dimensional images
US7646394B1 (en) * 2004-03-05 2010-01-12 Hrl Laboratories, Llc System and method for operating in a virtual environment
US7178111B2 (en) * 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
JP4515458B2 (ja) * 2004-10-12 2010-07-28 日本電信電話株式会社 3次元ポインティング方法、3次元ポインティング装置、及び3次元ポインティングプログラム
JP2006128754A (ja) 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd 撮像装置、および撮像方法
JP4683970B2 (ja) * 2005-03-24 2011-05-18 任天堂株式会社 タッチ入力プログラムおよびタッチ入力装置
US7477777B2 (en) * 2005-10-28 2009-01-13 Aepx Animation, Inc. Automatic compositing of 3D objects in a still frame or series of frames
US8009903B2 (en) * 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
EP2084672A1 (en) * 2006-11-20 2009-08-05 THOMSON Licensing System and method for compositing 3d images
JP4793933B2 (ja) * 2007-03-12 2011-10-12 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
US8665258B2 (en) * 2008-09-16 2014-03-04 Adobe Systems Incorporated Generating a depth map based on a single image
EP2326101B1 (en) * 2008-09-18 2015-02-25 Panasonic Corporation Stereoscopic video reproduction device and stereoscopic video display device
KR20110059790A (ko) * 2008-09-25 2011-06-03 코닌클리케 필립스 일렉트로닉스 엔.브이. 3차원 이미지 데이터 처리
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
WO2010075726A1 (zh) * 2008-12-30 2010-07-08 华为终端有限公司 立体全景视频流生成方法、设备及视频会议方法和设备
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
US8866841B1 (en) * 2009-04-03 2014-10-21 Joshua Distler Method and apparatus to deliver imagery with embedded data
JP5293463B2 (ja) * 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CA2772607A1 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
JP4816789B2 (ja) * 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2011199526A (ja) * 2010-03-18 2011-10-06 Fujifilm Corp 被写体の追尾装置およびその動作制御方法
JP4787905B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
GB2479410A (en) * 2010-04-09 2011-10-12 Tektronix Uk Ltd Measuring perceived stereoscopic visual depth
US8994716B2 (en) * 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8649592B2 (en) * 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
GB2483285A (en) * 2010-09-03 2012-03-07 Marc Cardle Relief Model Generation
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8983121B2 (en) * 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
US8514225B2 (en) * 2011-01-07 2013-08-20 Sony Computer Entertainment America Llc Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
US8618952B2 (en) * 2011-01-21 2013-12-31 Honda Motor Co., Ltd. Method of intersection identification for collision warning system
WO2012175783A1 (en) * 2011-06-21 2012-12-27 Nokia Corporation Video remixing system
US8411113B1 (en) * 2011-10-12 2013-04-02 Google Inc. Layered digital image data reordering and related digital image rendering engine
US9558595B2 (en) * 2014-12-17 2017-01-31 Ross Video Limited Methods and systems for intersecting digital images
US10609307B2 (en) * 2015-09-28 2020-03-31 Gopro, Inc. Automatic composition of composite images or videos from frames captured with moving camera

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116117A (ja) * 2014-12-16 2016-06-23 大日本印刷株式会社 画像プリント装置、システム及び方法
CN106443980A (zh) * 2016-12-16 2017-02-22 福建福光股份有限公司 紧凑型广角高分辨率空间目标探测镜头
CN106443980B (zh) * 2016-12-16 2018-10-02 福建福光股份有限公司 紧凑型广角高分辨率空间目标探测镜头
JP2018117276A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
US11403741B2 (en) 2017-01-19 2022-08-02 Sony Corporation Video signal processing apparatus, video signal processing method, and program
JP2020513123A (ja) * 2017-03-30 2020-04-30 スノー コーポレーション イメージに動的エフェクトを適用する方法および装置
JP2019121216A (ja) * 2018-01-09 2019-07-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7191514B2 (ja) 2018-01-09 2022-12-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2019230225A1 (ja) * 2018-05-29 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JPWO2019230225A1 (ja) * 2018-05-29 2021-07-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
US11450352B2 (en) 2018-05-29 2022-09-20 Sony Corporation Image processing apparatus and image processing method
JP7272356B2 (ja) 2018-05-29 2023-05-12 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
US11153552B2 (en) 2018-06-29 2021-10-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and non-transitory computer-readable storage medium
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium

Also Published As

Publication number Publication date
US20160307361A1 (en) 2016-10-20
US20130142452A1 (en) 2013-06-06
CN103136746A (zh) 2013-06-05
US9406139B2 (en) 2016-08-02
US10540805B2 (en) 2020-01-21

Similar Documents

Publication Publication Date Title
JP2013118468A (ja) 画像処理装置および画像処理方法
KR102516541B1 (ko) 비디오 스트림의 이미지 세그먼트화 및 수정
JP6208383B2 (ja) プレビューモードにおける画像キャプチャリングパラメータ調整
JP6007469B2 (ja) 情報処理装置、表示制御方法、およびプログラム
CN111061912A (zh) 一种处理视频文件的方法及电子设备
KR20190089091A (ko) 자동화된 3차원 모델 생성
JP5857567B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2011028689A (ja) 動画抽出装置、プログラム、および動画抽出方法
JP2011186536A (ja) 情報処理装置、情報処理法方法およびプログラム
WO2013111552A1 (ja) 画像処理装置、撮像装置および画像処理方法
US20130194184A1 (en) Method and apparatus for controlling mobile terminal using user interaction
WO2013080739A1 (ja) 画像処理装置、画像認識装置、画像認識方法およびプログラム
CN104049861B (zh) 电子装置及操作所述电子装置的方法
CN107851129B (zh) 信息处理装置、信息处理方法和程序
JP2013092855A (ja) 画像処理装置およびプログラム
CN107370977B (zh) 一种在检测视频中添加解说的方法、设备以及存储介质
CN107357424B (zh) 一种手势操作的识别方法、设备及计算机可读存储介质
JP2013092856A (ja) 画像処理装置およびプログラム
JP5173915B2 (ja) 画像処理装置及び撮像装置
JP2017188787A (ja) 撮像装置、画像合成方法、および画像合成プログラム
WO2013080727A1 (ja) 画像処理装置、画像処理方法およびプログラム
CN112163554A (zh) 获取视频中的标记掩模的方法和装置
CN111462279A (zh) 图像显示方法、装置、设备及可读存储介质
JP6295808B2 (ja) 目検出装置、目検出方法及び目検出プログラム
JP6296319B1 (ja) 情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体