JP4285367B2 - 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 - Google Patents
視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 Download PDFInfo
- Publication number
- JP4285367B2 JP4285367B2 JP2004244956A JP2004244956A JP4285367B2 JP 4285367 B2 JP4285367 B2 JP 4285367B2 JP 2004244956 A JP2004244956 A JP 2004244956A JP 2004244956 A JP2004244956 A JP 2004244956A JP 4285367 B2 JP4285367 B2 JP 4285367B2
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- line
- sight
- reference point
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
特許文献1記載の発明は、ウェブページのデザインを評価するシステムであって、評価対象のウェブページのデータを受信するウェブデータ受信部と、ウェブページを見るユーザの視線情報を受信する視線情報受信部と、ウェブデータ受信部によって受信されたウェブデータと、視線情報受信部によって受信された視線情報とに基づいてウェブページのデザインを評価するデザイン評価部とで構成されている。
しかしながら、学習という方法を採用しているため、与えられた画像特徴量が学習済みのものであれば適切なアイフローが得られるが、学習済みのものでなければ適切なアイフローを得ることができない。そのため、数多くの学習を経なければ十分な信頼性が得られないという問題があった。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、装置の小型化および低コスト化を図ることができるとともに、適切なアイフローを確実に求めることができる視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を提供することを目的としている。
本発明者等は、鋭意検討を重ねた結果、突出部を有する画像オブジェクトを観察した場合、人間の感覚には、画像オブジェクトの内部から突出部に向けて視線が誘導されやすいという特性(方向特性)、および突出部の鋭利度合いが大きければ大きいほど視線が誘導されやすいという特性(強度特性)があることを見出した。したがって、突出部の頂点付近の点を基準として所定の方向に所定の大きさで視線が誘導されるという特性に基づいて視線を誘導する度合いを求めれば、レイアウト要素が視線をどの方向に誘導しやすいかを定量的に求めることができるという結論に達した。
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
ここで、本システムは、単一の装置、端末その他の機器として実現するようにしてもよいし、複数の装置、端末その他の機器を通信可能に接続したネットワークシステムとして実現するようにしてもよい。後者の場合、各構成要素は、それぞれ通信可能に接続されていれば、複数の機器等のうちいずれに属していてもよい。以下、発明2および3の視線誘導度算出システムにおいて同じである。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から誘導基準点までの距離が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、画像オブジェクトの重心から誘導基準点までの距離が大きくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、画像オブジェクトとは、画像のなかで外郭を有する領域をいい、この領域は、閉領域または開領域であってもよい。以下、発明2および3の視線誘導度算出システムにおいて同じである。
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鋭角の2等分線が、エッジを含んで外郭が形成される画像オブジェクトのその外郭線と交差する点から誘導基準点までの距離が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、仮想補助線がなす角のうち鋭角の2等分線が画像オブジェクトの外郭線と交差する点から誘導基準点までの距離が大きくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導強度算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出してもよい。以下、発明3の視線誘導度算出システムにおいて同じである。
〔発明3〕 また、上記目的を達成するために、発明3の視線誘導度算出システムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角度が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、仮想補助線がなす角度が小さくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
〔発明4〕 さらに、発明4の視線誘導度算出システムは、発明1ないし3のいずれかの視線誘導度算出システムにおいて、
前記突出部近似手段は、前記屈曲部を多角形近似するようになっていることを特徴とする。
このような構成であれば、突出部近似手段により、屈曲部が多角形近似される。
これにより、屈曲部を比較的似通った形の突出部に近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
前記突出部近似手段は、前記屈曲部の両端点の間でかつ前記屈曲部のエッジ上に1または複数の補助点を設定し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を線で結んでなる形状を前記突出部として近似するようになっていることを特徴とする。
これにより、屈曲部を比較的似通った形の突出部に近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
前記突出部近似手段は、前記屈曲部の両端点を結ぶ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第1補助点設定手段と、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を結んだ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第2補助点設定手段とを有し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を直線で結んでなる多角形を前記突出部として近似するようになっていることを特徴とする。
これにより、屈曲部を比較的似通った形の突出部に近似するとともに、視線誘導度を求めやすい多角形として近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
前記突出部近似手段は、前記屈曲部と前記多角形との距離が所定以下となるまで前記第2補助点設定手段による設定を繰り返し行うようになっていることを特徴とする。
このような構成であれば、突出部近似手段により、屈曲部と多角形との距離が所定以下となるまで第2補助点設定手段による設定が繰り返し行われ、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を直線で結んでなる多角形が突出部として近似される。
ここで、距離とは、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を結んだ直線から、エッジまでの距離が最も大きくなる位置に設定した補助点までの距離をいう。
前記視線誘導度算出手段は、前記突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度を算出するようになっていることを特徴とする。
このような構成であれば、突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度が算出される。
適切なアイフローを求める観点からは、突出部の頂点を誘導基準点とするのが好ましいが、突出部の頂点が特定しにくい場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、突出部の頂点の近傍を誘導基準点としてもよい。
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明1の視線誘導度算出システムと同等の作用および効果が得られる。
〔発明10〕 また、上記目的を達成するために、発明10の視線誘導度算出プログラムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明2の視線誘導度算出システムと同等の作用および効果が得られる。
〔発明11〕 また、上記目的を達成するために、発明11の視線誘導度算出プログラムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明3の視線誘導度算出システムと同等の作用および効果が得られる。
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明1の視線誘導度算出システムと同等の効果が得られる。
〔発明13〕 また、上記目的を達成するために、発明13の視線誘導度算出方法は、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明2の視線誘導度算出システムと同等の効果が得られる。
〔発明14〕 また、上記目的を達成するために、発明14の視線誘導度算出方法は、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明3の視線誘導度算出システムと同等の効果が得られる。
前記突出部近似手段は、前記画像データに基づいて、前記画像に含まれる複数の頂点を含む屈折部を当該屈折部より少ない頂点を含む突出部に近似することを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる複数の頂点を含む屈折部がこれより少ない頂点を含む突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
以下、本発明の第1の実施の形態を図面を参照しながら説明する。図1ないし図22は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第1の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクトが視線を誘導する方向および強さを算出する場合について適用したものである。
図1は、レイアウト装置100の構成を示すブロック図である。
レイアウト装置100は、図1に示すように、制御プログラムに基づいて演算およびシステム全体を制御するCPU30と、所定領域にあらかじめCPU30の制御プログラム等を格納しているROM32と、ROM32等から読み出したデータやCPU30の演算過程で必要な演算結果を格納するためのRAM34と、外部装置に対してデータの入出力を媒介するI/F38とで構成されており、これらは、データを転送するための信号線であるバス39で相互にかつデータ授受可能に接続されている。
CPU30は、マイクロプロセッシングユニット(MPU)等からなり、ROM32の所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図2のフローチャートに示す視線誘導度算出処理を実行するようになっている。
視線誘導度算出処理は、画像オブジェクトが視線を誘導する方向および強さを算出する処理であって、CPU30において実行されると、図2に示すように、まず、ステップS100に移行するようになっている。
ステップS100では、画像データを記憶装置42から読み出し、ステップS102に移行して、読み出した画像データに基づいて、曲線部を有する画像オブジェクトを多角形に近似し、ステップS104に移行して、多角形に近似した画像オブジェクトに対して視線を誘導する基準となる誘導基準点を設定し、ステップS106に移行する。
ステップS106では、設定した誘導基準点について視線を誘導する方向を示す視線誘導方向を算出し、ステップS108に移行して、設定した誘導基準点について視線を誘導する強さを示す視線誘導強度を算出し、一連の処理を終了して元の処理に復帰させる。
図3は、画像オブジェクト10を含むベクタ画像を示す図である。
ステップS100では、図3に示すように、画像オブジェクト10を含むベクタ画像の画像データを記憶装置42から読み出す。図3の例では、画像オブジェクト10は、直角三角形となっている。
ベクタ画像データは、図4に示すように、画像オブジェクト10の形状や大きさを数値で表現したデータ構造を有し、SVG等の代表的なデータフォーマットで構成することができる。図4の例では、多角形を描画することを示すタグ(<polygon points>)内に画像オブジェクト10の各頂点の座標を指定している。これは、隣接する指定座標間を直線で描画することにより画像オブジェクト10を形成することを示している。
図5は、ベクタ画像を2次元座標空間上に配置した図である。
ベクタ画像は、図5に示すように、2次元座標空間上に配置することができる。図5の例では、ベクタ画像の左上を原点としてベクタ画像を2次元座標空間上に配置している。
図6は、多角形近似処理を示すフローチャートである。
多角形近似処理は、曲線部を有する画像オブジェクト10を多角形に近似する処理であって、ステップS102において実行されると、図6に示すように、まず、ステップS200に移行するようになっている。
ステップS200では、許容距離を入力装置40から入力し、ステップS202に移行して、読み出したベクタ画像データに基づいて、画像オブジェクト10の曲線部の両端点を取得し、ステップS204に移行する。
ステップS208では、画像オブジェクト10と、ステップS206で構成した多角形との距離を算出する。例えば、画像オブジェクト10の曲線部の両端点および補助点のうちエッジ上で隣接するもの同士を結んだ直線から、エッジまでの距離が最も大きくなる位置に設置した補助点までの距離を算出する。
一方、ステップS210において、ステップs208で算出した距離が許容距離よりも大きいと判定したとき(No)は、ステップS212に移行して、曲線部のエッジ上であって、曲線部の両端点およびこれまで設定した各補助点のうちエッジ上で隣接するもの同士を結んだ直線からエッジまでの距離が最も大きくなる位置に補助点を設定し、ステップS206に移行する。
図7に示すように、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合、誘導基準点を簡単には設定することができない。そのため、このような画像オブジェクト10を多角形に近似する必要がある。
図8は、画像オブジェクト10を三角形に近似する場合を示す図である。
図8の場合において距離が許容距離よりも大きければ、図9に示すように、さらに、端点P0および補助点P2を結ぶ直線L02からエッジ10aまでの距離が最も大きくなる位置に補助点P3を設定する。ここで、補助点P3を最遠点として設定したが、具体的には、これまで形成した直線L01,L02からエッジ10aまでの距離が最も大きくなる位置を最遠点として設定し、その結果、補助点P3がこれに該当した。以下、図10ないし図12において同じである。そして、両端点P0,P1および補助点P2,P3のうちエッジ10a上で隣接するもの同士を直線で結び四角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、図7の画像オブジェクト10は、両端点P0,P1および補助点P2,P3で構成される四角形に近似される。
図9の場合において距離が許容距離よりも大きければ、図10に示すように、さらに、端点P1および補助点P2を結ぶ直線L12からエッジ10aまでの距離が最も大きくなる位置に補助点P4を設定する。そして、両端点P0,P1および補助点P2〜P4のうちエッジ10a上で隣接するもの同士を直線で結び5角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、図7の画像オブジェクト10は、両端点P0,P1および補助点P2〜P4で構成される5角形に近似される。
また、画像オブジェクト10が多角形で構成されている場合は、その角数を低減した多角形に近似することもできる。
8角形の画像オブジェクト10を四角形に近似する場合は、図11に示すように、まず、画像オブジェクト10の頂点のうちいずれかを基準点P10とし、基準点P10からの距離が最も大きくなる他の頂点を基準点P11として設定する。次いで、基準点P10,P11の間にある他の頂点のうち基準点P10,P11を結ぶ直線L110からの距離が最も大きくなるものを基準点P12として設定する。そして、基準点P10,P12を直線で結び、基準点P12,P11を直線で結び四角形を構成する。ここで、誤差が許容誤差以下であれば、多角形近似処理が終了し、8角形の画像オブジェクト10は、基準点P10〜P12を含んで構成される四角形に近似される。
図11の場合において距離が許容距離よりも大きければ、図12に示すように、さらに、基準点P10,P12の間にある他の頂点のうち基準点P10,P12を結ぶ直線L112からの距離が最も大きくなるものを基準点P13として設定する。そして、基準点P10,P13を直線で結び、基準点P13,P12を直線で結び、基準点P12,P11を直線で結び5角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、8角形の画像オブジェクト10は、基準点P10〜P13を含んで構成される5角形に近似される。
ステップS104では、多角形に近似した画像オブジェクト10の各頂点を誘導基準点として設定する。以下、説明の単純化を図るため、図4の画像オブジェクト10(直角三角形)を例にとって説明する。図4に示すように、画像オブジェクト10の各頂点A〜Cの座標がベクタ画像データに含まれている場合は、各頂点A〜Cの座標をベクタ画像データから取得することにより誘導基準点を設定することができる。
なお、各頂点A〜Cの座標がベクタ画像データに含まれていない場合は、画像オブジェクト10の外郭線の方程式を解くことにより求めることができる。
図13の例では、画像オブジェクト10の外郭線のうち頂点A,Bを結ぶ直線(以下、直線ABという。)の方程式がX=2(1≦Y≦5)、画像オブジェクト10の外郭線のうち頂点B,Cを結ぶ直線(以下、直線BCという。)の方程式がY=5(2≦X≦7)、画像オブジェクト10の外郭線のうち頂点C,Aを結ぶ直線(以下、直線CAという。)の方程式がY=2X−3(2≦X≦7)で表されるので、各頂点A〜Cの座標は、それら直線の方程式を解くことにより算出することができる。その結果、各頂点A〜Cの座標は、A(2,1)、B(2,5)、C(5,7)として算出することができる。
ステップS106では、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向を視線誘導方向として算出する。
図14に示すように、誘導基準点A〜Cにおける視線誘導方向をそれぞれa〜cとし、誘導基準点Aの仮想補助線を直線ABおよび直線CAとし、誘導基準点Bの仮想補助線を直線ABおよび直線BCとし、誘導基準点Cの仮想補助線を直線CAおよび直線BCとすると、視線誘導方向a〜cは、下式(1)〜(3)により、(−2.5,−4)、(−2.5,2)および(5,2)として算出することができる。
また、3時の方向を0°として視線誘導方向の角度を求めると、視線誘導方向aについては、図15に示すように、下式(7)により「122°」として算出することができる。
同様に、視線誘導方向bについては、図16に示すように、下式(8)により「219°」として算出することができる。
同様に、視線誘導方向cについては、図17に示すように、下式(9)により「338°」として算出することができる。
ステップS108では、各誘導基準点ごとに、画像オブジェクト10の重心Gから誘導基準点までの距離(以下、重心距離という。)を視線誘導強度として算出する。
図18は、誘導基準点からの重心距離を示す図である。
画像オブジェクト10の重心Gの座標は、図18に示すように、下式(10)により(3.67,3.67)として算出することができる。
以上により、誘導基準点Aにおける視線誘導方向および視線誘導強度は、図19に示すように、(−0.53,−0.85)および「3.14」として算出することができる。これは、画像オブジェクト10の頂点Aを基準として(−0.53,−0.85)の方向に「3.14」の大きさで視線が誘導されることを示している。
誘導基準点Cにおける視線誘導方向および視線誘導強度は、(0.93,0.37)および「3.59」として算出することができる。これは、画像オブジェクト10の頂点Cを基準として(0.93,0.37)の方向に「3.59」の大きさで視線が誘導されることを示している。
レイアウト装置100では、ステップS100を経て、ベクタ画像データが読み出される。このとき、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合は、ステップS102,S104を経て、読み出されたベクタ画像データに基づいて、画像オブジェクト10が多角形に近似され、近似された画像オブジェクト10の各頂点が誘導基準点として設定される。
視線誘導方向および視線誘導強度は、レイアウトに応用することができる。
図20は、レイアウトテンプレートを用いて誌面をレイアウトする場合を示す図である。
編集者は、画像オブジェクト12aに対して画像オブジェクト12b〜12dをどのように配置していいか迷うことが多い。そこで、図21に示すように、画像オブジェクト12aの各誘導基準点に対応させて視線誘導案内情報14を表示し、画像オブジェクト12aのアイフローを編集者に通知する。
編集者は、視線誘導案内情報14を参照しながら、図22に示すように、視線誘導方向に沿って視線誘導強度が最も大きい位置に画像オブジェクト12bを配置し、同様に、視線誘導方向に沿って視線誘導強度が2番目、3番目に大きい位置に画像オブジェクト12c,12dを配置すればよい。このように画像オブジェクト12b〜12dを配置すれば、読み手が画像オブジェクト12aを見たときに画像オブジェクト12b〜12dの順で視線が流れやすくなり、編集者が期待する優先順位のアピールの効果が得られる。
視線は、画像オブジェクト10の内部から頂点に向けて誘導されやすい。したがって、画像オブジェクト10を多角形に近似してから誘導基準点を設定することにより、明確な突出部を含まない画像オブジェクト10であっても、画像オブジェクト10が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができる。
さらに、本実施の形態では、画像オブジェクト10と多角形との距離が所定以下となるまで補助点の設定を繰り返し行うようになっている。
さらに、本実施の形態では、多角形に近似した画像オブジェクト10の頂点を誘導基準点として設定するようになっている。
視線は、画像オブジェクト10の内部から頂点に向けて誘導されやすい。したがって、画像オブジェクト10の頂点を誘導基準点として設定することにより、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
これにより、画像オブジェクト10の内部から頂点に向かう方向を視線誘導方向として算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
さらに、本実施の形態では、誘導基準点からの重心距離を視線誘導強度として算出するようになっている。
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図23ないし図26は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第2の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクト10が視線を誘導する方向および強さを算出する場合について適用したものであり、上記第1の実施の形態と異なるのは、画像オブジェクト10の外郭線のうち誘導基準点と対向する辺(以下、対向辺という。)から誘導基準点までの距離を視線誘導強度として算出する点にある。以下、上記第1の実施の形態と異なる部分についてのみ説明し、上記第1の実施の形態と重複する部分については同一の符号を付して説明を省略する。
ステップS108では、各誘導基準点ごとに、誘導基準点を視線誘導方向に通過する補助線を仮想的に形成し、仮想補助線が対向辺と交差する点から誘導基準点までの距離(以下、懐距離という。)を視線誘導強度として算出する。
図24は、仮想補助線が対向辺と交差する点の座標を求める計算例を示す表である。
懐距離を求めるには、まず、仮想補助線が対向辺と交差する点の座標を求める。誘導基準点Aについては、図23および図24に示すように、仮想補助線の方程式がy=1.6x−2.2、対向辺の方程式がy=5で表されるので、2直線の交点A'の座標は、それら直線の方程式を解くことにより算出することができる。その結果、交点A'の座標は、(4.5,5)として算出することができる。
誘導基準点Cについては、仮想補助線の方程式がy=0.4x+2.2、対向辺の方程式がx=2で表されるので、2直線の交点C'の座標は、それら直線の方程式を解き、(2,3)として算出することができる。
図25は、懐距離を求める計算例を示す表である。
誘導基準点Bからの懐距離は、交点B'から誘導基準点Bまでの距離となるので、「3.20」として算出することができる。
誘導基準点Cからの懐距離は、交点C'から誘導基準点Cまでの距離となるので、「5.38」として算出することができる。
以上により、誘導基準点Aにおける視線誘導方向および視線誘導強度は、図26に示すように、(−0.53,−0.85)および「4.72」として算出することができる。これは、画像オブジェクト10の頂点Aを基準として(−0.53,−0.85)の方向に「4.72」の大きさで視線が誘導されることを示している。
誘導基準点Cにおける視線誘導方向および視線誘導強度は、(0.93,0.37)および「5.38」として算出することができる。これは、画像オブジェクト10の頂点Cを基準として(0.93,0.37)の方向に「5.38」の大きさで視線が誘導されることを示している。
レイアウト装置100では、ステップS100を経て、ベクタ画像データが読み出される。このとき、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合は、ステップS102,S104を経て、読み出されたベクタ画像データに基づいて、画像オブジェクト10が多角形に近似され、近似された画像オブジェクト10の各頂点が誘導基準点として設定される。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。また、その頂点角が鋭利になるほど、懐距離が大きくなる。したがって、画像オブジェクト10の頂点角の大きさに応じた視線誘導強度を算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかを比較的適切に算出することができる。
以下、本発明の第3の実施の形態を図面を参照しながら説明する。図27ないし図30は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第3の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクトが視線を誘導する方向および強さを算出する場合について適用したものである。上記第1の実施の形態と異なるのは、エッジ抽出後の画像オブジェクトの点数に基づいて、近似処理を行うか否かの判定処理を行う点にある。以下、上記第1の実施の形態と異なる部分についてのみ説明し、上記第1の実施の形態と重複する部分については同一の符号を付して説明を省略する。
つまり、上記CPU30は、ROM32の所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図27のフローチャートに示す視線誘導度算出処理を実行するようになっている。
視線誘導度算出処理は、画像オブジェクトが視線を誘導する方向および強さを算出する処理であって、CPU30において実行されると、図27に示すように、まず、ステップS300に移行するようになっている。
ステップS300では、画像データを記憶装置42から読み出し、ステップS302に移行して、読み出した画像データに基づいて当該画像データの解析処理を行い、ステップS304に移行して、解析処理の結果に基づいて多角形近似処理を行うか否かを判定し、行うと判定した場合(Yes)は、ステップS306に移行する。ここで、ステップS304において、解析処理を行わないと判定された場合(No)は、その画像データは多角形近似処理を行う必要がないと判断される。
ステップS310では、設定した誘導基準点について視線を誘導する方向を示す視線誘導方向を算出し、ステップS312に移行して、設定した誘導基準点について視線を誘導する強さを示す視線誘導強度を算出し、一連の処理を終了して元の処理に復帰させる。
ここで、ステップS300、ステップS306〜ステップS312の処理は、上記第1の実施の形態におけるステップS100、ステップS102〜ステップS108の処理と同じ処理となるので、本実施の形態においては、ステップS302及びステップS304の処理を説明する。
図28は、エッジ抽出後の曲線部を含む画像オブジェクト10を示す図である。
ステップS302においては、ステップS300において取得された図28の画像オブジェクト10に対し、まず、この画像オブジェクト10のエッジを抽出する。抽出されたエッジは、図28に示すように画像オブジェクトの形状に沿った点列によって示される。また、このような画像オブジェクト10のSVG形式のベクタ画像データは、図29に示すように表現される。
画像データ解析処理においては、ベクタ画像データ中における、多角形を描画することを示すタグ(<polyline points>)内の構成を解析する。この解析により、図29の(1)における、タグ(<polyline points>)内には、図28の画像オブジェクト10の直線部分(1)の両端点の座標が含まれていることが解り、図29の(2)におけるタグ(<polyline points>)内には、図28の画像オブジェクト10の曲線部分(2)の各点の座標(全部で27点)が含まれていることが解る。
一方、ステップS304では、画像データ解析処理の解析結果に基づき、多角形近似処理を行うか否かを判定する。この判定処理は、記憶装置42に記憶された判定処理用の情報に基づいて行われる。この判定処理用の情報には、多角形近似処理を行うか否かを判定するための条件情報が含まれている。本実施の形態において、判定処理用の条件情報は、上記解析により取得した情報における、座標点の数が6以上で、且つこれら座標点を直線で結んだ結果が閉じた図形となっていない場合に多角形近似処理を行うと判定するという内容ものであるとする。
レイアウト装置100では、ステップS100を経て、図28に示す、曲線部を含む画像オブジェクト10のベクタ画像データが読み出される。ステップS302では、図29に示すベクタ画像データにおける(1)のタグ(<polyline points>)を解析することにより、座標点数が、(1296,1296)、(7896,5696)の2個で、始点の座標と終点の座標とが異なることから図形が閉じていないことを示す情報が取得され、一方、図29における(2)のタグ(<polyline points>)を解析することにより、座標点数が、(1296,1296)、、(1004,2125)、・・・中略・・・、(7854,5709)、(7896,5696)の27個で、始点の座標と終点の座標とが異なることから図形が閉じていないことを示す情報が取得される。
更に、ステップS310を経て、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向が視線誘導方向として算出される。また、ステップS312を経て、各誘導基準点ごとに懐距離が視線誘導強度として算出される。
なお、上記ステップS302及びステップS304の処理は、第1の実施の形態における図11及び図12に示す、リアス式海岸のような形状をした画像オブジェクトに対して、多角形近似をするか否かを判定するのにも有効である。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。また、その頂点角が鋭利になるほど、重心距離が大きくなる。したがって、画像オブジェクト10の頂点角の大きさに応じた視線誘導強度を算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。したがって、画像オブジェクト10が視線をどの方向に誘導しやすいかを比較的適切に算出することができる。
また、上記第1および第2の実施の形態においては、画像オブジェクト10が直角三角形である場合を例にとって説明したが、これに限らず、画像オブジェクト10が他の三角形形状、4角形以上の多角形形状その他の幾何学形状であっても、上記第1および第2の実施の形態と同じ要領で視線誘導方向および視線誘導強度を算出することができる。
Claims (15)
- 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。 - 請求項1ないし3のいずれかにおいて、
前記突出部近似手段は、前記屈曲部を多角形近似するようになっていることを特徴とする視線誘導度算出システム。 - 請求項1ないし4のいずれかにおいて、
前記突出部近似手段は、前記屈曲部の両端点の間でかつ前記屈曲部のエッジ上に1または複数の補助点を設定し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を線で結んでなる形状を前記突出部として近似するようになっていることを特徴とする視線誘導度算出システム。 - 請求項4および5のいずれかにおいて、
前記突出部近似手段は、前記屈曲部の両端点を結ぶ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第1補助点設定手段と、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を結んだ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第2補助点設定手段とを有し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を直線で結んでなる多角形を前記突出部として近似するようになっていることを特徴とする視線誘導度算出システム。 - 請求項6において、
前記突出部近似手段は、前記屈曲部と前記多角形との距離が所定以下となるまで前記第2補助点設定手段による設定を繰り返し行うようになっていることを特徴とする視線誘導度算出システム。 - 請求項1ないし7のいずれかにおいて、
前記視線誘導度算出手段は、前記突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度を算出するようになっていることを特徴とする視線誘導度算出システム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。 - 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。 - 請求項1ないし8のいずれかにおいて、
前記突出部近似手段は、前記画像データに基づいて、前記画像に含まれる複数の頂点を含む屈折部を当該屈折部より少ない頂点を含む突出部に近似することを特徴とする視線誘導度算出システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004244956A JP4285367B2 (ja) | 2003-10-29 | 2004-08-25 | 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 |
US10/973,427 US20050138549A1 (en) | 2003-10-29 | 2004-10-27 | Line-of-sight guiding degree calculation system and line-of-sight guiding degree calculation program as well as line-of-sight guiding degree calculation method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003369237 | 2003-10-29 | ||
JP2004244956A JP4285367B2 (ja) | 2003-10-29 | 2004-08-25 | 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005152600A JP2005152600A (ja) | 2005-06-16 |
JP4285367B2 true JP4285367B2 (ja) | 2009-06-24 |
Family
ID=34680587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004244956A Expired - Fee Related JP4285367B2 (ja) | 2003-10-29 | 2004-08-25 | 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20050138549A1 (ja) |
JP (1) | JP4285367B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080317355A1 (en) * | 2007-06-21 | 2008-12-25 | Trw Automotive U.S. Llc | Method and apparatus for determining characteristics of an object from a contour image |
CN112288631A (zh) * | 2020-10-27 | 2021-01-29 | 四川天艺生态园林集团股份有限公司 | 一种含孔洞的矢量多边形区域拼接方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR1458137A (fr) * | 1965-03-16 | 1966-03-04 | Nord Aviation | Procédé et dispositif de guidage d'un aérodyne |
US3513315A (en) * | 1966-11-14 | 1970-05-19 | Bofors Ab | System for determining the displacement of an object from a line of sight |
US4967979A (en) * | 1973-09-21 | 1990-11-06 | The United States Of America As Represented By The Secretary Of The Navy | Command guidance technique for line-of-sight missile |
US4378918A (en) * | 1981-01-09 | 1983-04-05 | The United States Of America As Represented By The Secretary Of The Army | Quasi-stabilization for line of sight guided missiles |
EP0222571A3 (en) * | 1985-10-31 | 1988-05-04 | British Aerospace Public Limited Company | Line of sight missile guidance |
FR2647540B1 (fr) * | 1989-05-23 | 1994-03-25 | Thomson Csf | Dispositif de ralliement de missile |
DE4339187C1 (de) * | 1993-11-16 | 1995-04-13 | Mafo Systemtech Gmbh & Co Kg | Verfahren zur Bestimmung der Sichtliniendrehraten mit einem starren Suchkopf |
FR2782811B1 (fr) * | 1998-09-02 | 2000-11-10 | Aerospatiale | Procede et dispositif de guidage d'un engin volant, notamment un missile, sur une cible |
US6158694A (en) * | 1998-10-13 | 2000-12-12 | Raytheon Company | Spacecraft inertial attitude and rate sensor control system |
US6193188B1 (en) * | 1998-11-12 | 2001-02-27 | Raytheon Company | Line of sight pointing mechanism for sensors |
-
2004
- 2004-08-25 JP JP2004244956A patent/JP4285367B2/ja not_active Expired - Fee Related
- 2004-10-27 US US10/973,427 patent/US20050138549A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20050138549A1 (en) | 2005-06-23 |
JP2005152600A (ja) | 2005-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4396430B2 (ja) | 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法 | |
EP3620981B1 (en) | Object detection method, device, apparatus and computer-readable storage medium | |
EP1770638B1 (en) | Displaying images according to an image evaluation value | |
US20180068461A1 (en) | Posture estimating apparatus, posture estimating method and storing medium | |
JP6000602B2 (ja) | 体検出方法及び物体検出装置 | |
US8207987B2 (en) | Method and apparatus for producing digital cartoons | |
US10783351B2 (en) | System and method for sensing facial gesture | |
JP3943638B2 (ja) | Ocrを利用しない文書画像中のドロップワードの自動認識方法 | |
JP4061379B2 (ja) | 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体 | |
US20050234323A1 (en) | Gaze guidance degree calculation system, gaze guidance degree calculation program, storage medium, and gaze guidance degree calculation method | |
CN112560584A (zh) | 一种人脸检测方法及装置、存储介质、终端 | |
US7542589B2 (en) | Road position detection | |
JP4285367B2 (ja) | 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 | |
KR102068489B1 (ko) | 3차원 객체 생성 장치 | |
WO2017034419A1 (en) | A process, system and apparatus for machine colour characterisation of digital media | |
KR101909485B1 (ko) | 프로그램, 정보기억매체 및 인식장치 | |
KR101145672B1 (ko) | 미소 훈련을 위한 미소 분석 시스템 | |
CN112734747A (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
AU2019433083B2 (en) | Control method, learning device, discrimination device, and program | |
JP4396450B2 (ja) | 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 | |
CN106406507A (zh) | 图像处理方法以及电子设备 | |
JP4870721B2 (ja) | 画像特徴抽出装置、画像特徴抽出方法、プログラム、及び記録媒体 | |
CN114549809A (zh) | 手势识别方法以及相关设备 | |
JP4986934B2 (ja) | 図形領域抽出装置、図形領域抽出方法、プログラム、及び記録媒体 | |
Dubuc et al. | Complexity, confusion, and perceptual grouping. Part II: Mapping complexity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090303 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090316 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |