JP4285367B2 - 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 - Google Patents

視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 Download PDF

Info

Publication number
JP4285367B2
JP4285367B2 JP2004244956A JP2004244956A JP4285367B2 JP 4285367 B2 JP4285367 B2 JP 4285367B2 JP 2004244956 A JP2004244956 A JP 2004244956A JP 2004244956 A JP2004244956 A JP 2004244956A JP 4285367 B2 JP4285367 B2 JP 4285367B2
Authority
JP
Japan
Prior art keywords
guidance
line
sight
reference point
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004244956A
Other languages
English (en)
Other versions
JP2005152600A (ja
Inventor
直樹 萱原
敦示 永原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004244956A priority Critical patent/JP4285367B2/ja
Priority to US10/973,427 priority patent/US20050138549A1/en
Publication of JP2005152600A publication Critical patent/JP2005152600A/ja
Application granted granted Critical
Publication of JP4285367B2 publication Critical patent/JP4285367B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像が視線を誘導する度合いを算出するシステムおよびプログラム、並びに方法に係り、特に、装置の小型化および低コスト化を図ることができるとともに、適切なアイフローを確実に求めることができる視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法に関する。
商品のカタログ等のように、レイアウト要素(例えば、タイトル、画像、テキスト)が見やすくレイアウトされたデザイン性の高い文書をビジュアルドキュメントという。ビジュアルドキュメントの作成には、多くのデザインノウハウが要求されるため、一般のビジネスマンが作成するのは難しい。そのため、ビジュアルドキュメントの作成は、デザインの専門的な知識を有するデザイナに委託して行うことが多い。
デザイナがビジュアルドキュメントを作成する際には、読み手の視線が流れる方向(以下、アイフローという。)に意味的に連続するレイアウト要素を配置することにより、読みやすいレイアウトを実現している。例えば、1つの記事がタイトル、画像およびテキストで構成されているとしたら、アイフローがその順となるように、タイトル、画像およびテキストを配置するのが好ましい。したがって、デザイナは、レイアウト要素を配置しては、アイフローを予測して読みやすくなるように再配置し、試行錯誤を繰り返しながらレイアウトを行う。アイフローは、デザイナが直感や経験に基づいて予測しているため、定量的に検出するのが困難であった。
従来、アイフローを検出する技術およびこれに関連する技術としては、例えば、特許文献1に開示されているドキュメントデザイン評価システム、特許文献2に開示されている視線情報解析装置、および特許文献3に開示されている画像認識装置があった。
特許文献1記載の発明は、ウェブページのデザインを評価するシステムであって、評価対象のウェブページのデータを受信するウェブデータ受信部と、ウェブページを見るユーザの視線情報を受信する視線情報受信部と、ウェブデータ受信部によって受信されたウェブデータと、視線情報受信部によって受信された視線情報とに基づいてウェブページのデザインを評価するデザイン評価部とで構成されている。
特許文献2記載の発明は、眼球運動検出装置によって眼球の運動を検出し、解析装置によって検出された眼球の時系列変化を周波数領域で解析し、画像入力部から入力された表示される画像の内容を表示内容解析装置で解析し、両者を統合解析部で統合処理することにより、被験者の心理的な観察状態、画像に対する客観的な評価について信頼性の高いデータを得る。
特許文献3記載の発明は、方向認識の対象原稿が高濃度な背景画像に文字が白抜きで表現されているような原稿D2であった場合には、作成したヒストグラムH3、H4を反転させ、ヒストグラムH1、H2とし、反転後のヒストグラムに基づいて、原稿方向の認識を行う。
特開2002−175290号公報 特開平6−162号公報 特開2000−50051号公報
しかしながら、特許文献1および2記載の発明にあっては、アイカメラ等の機器を利用してアイフローを検出する構成となっているため、装置が大規模になるとともに、多大なコストを要するという問題があった。また、特許文献1および2記載の発明を利用してデザイナが自己のアイフローを検出しながらレイアウトを行う場合は、似たようなレイアウト結果を繰り返し見ることで目が慣れたり、自己が期待するアイフローを意識したりしてしまい、第三者が初めてそのレイアウト結果を見たときのアイフローと、実際に検出される自己のアイフローとが一致しない可能性がある。デザイナが目的とするのは、レイアウト結果を初めて手にする読み手にとって読みやすいレイアウトを実現することであるため、デザイナが必要とするのは、レイアウト結果を初めてみた人のアイフローである。したがって、デザイナが自己のアイフローを検出しながらレイアウトを行っても、適切なアイフローを得ることが難しく、読みやすいレイアウトを実現するのが困難であるという問題があった。
また、特許文献2記載の発明は、ビジュアルドキュメントの画像から抽出した画像特徴量と、その画像を被験者に見せたときに、計測機器を使って計測した視線の動きの視線特徴量との対応を学習する。そして、学習結果が蓄積された後は、画像特徴量さえ与えれば、与えられた画像特徴量および学習結果に基づいて視線特徴量を推測することができる。
しかしながら、学習という方法を採用しているため、与えられた画像特徴量が学習済みのものであれば適切なアイフローが得られるが、学習済みのものでなければ適切なアイフローを得ることができない。そのため、数多くの学習を経なければ十分な信頼性が得られないという問題があった。
また、特許文献3記載の発明にあっては、画像が縦方向であるか横方向であるかを判定するだけであり、アイフローを検出するまでには及ばない。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、装置の小型化および低コスト化を図ることができるとともに、適切なアイフローを確実に求めることができる視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を提供することを目的としている。
アイフローをレイアウトに応用するには、まず、1つのレイアウト要素に注目したときにそのレイアウト要素が視線をどの方向に誘導しやすいかを定量的に求めることが必要である。
本発明者等は、鋭意検討を重ねた結果、突出部を有する画像オブジェクトを観察した場合、人間の感覚には、画像オブジェクトの内部から突出部に向けて視線が誘導されやすいという特性(方向特性)、および突出部の鋭利度合いが大きければ大きいほど視線が誘導されやすいという特性(強度特性)があることを見出した。したがって、突出部の頂点付近の点を基準として所定の方向に所定の大きさで視線が誘導されるという特性に基づいて視線を誘導する度合いを求めれば、レイアウト要素が視線をどの方向に誘導しやすいかを定量的に求めることができるという結論に達した。
また、突出部を有する画像オブジェクトが画像に含まれる場合は、上記特性に基づいて画像の視線誘導度を求めることができる。しかしながら、画像オブジェクトが明確な突出部を有しない場合や、画像オブジェクトの外郭が複雑な場合は、画像の視線誘導度を簡単には求められない。この場合、画像オブジェクトの屈曲部を突出部に近似してから画像の視線誘導度を求めることが望ましい。
〔発明1〕 上記目的を達成するために、発明1の視線誘導度算出システムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
ここで、本システムは、単一の装置、端末その他の機器として実現するようにしてもよいし、複数の装置、端末その他の機器を通信可能に接続したネットワークシステムとして実現するようにしてもよい。後者の場合、各構成要素は、それぞれ通信可能に接続されていれば、複数の機器等のうちいずれに属していてもよい。以下、発明2および3の視線誘導度算出システムにおいて同じである。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から誘導基準点までの距離が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、画像オブジェクトの重心から誘導基準点までの距離が大きくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、画像オブジェクトとは、画像のなかで外郭を有する領域をいい、この領域は、閉領域または開領域であってもよい。以下、発明2および3の視線誘導度算出システムにおいて同じである。
〔発明2〕 また、上記目的を達成するために、発明2の視線誘導度算出システムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鋭角の2等分線が、エッジを含んで外郭が形成される画像オブジェクトのその外郭線と交差する点から誘導基準点までの距離が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、仮想補助線がなす角のうち鋭角の2等分線が画像オブジェクトの外郭線と交差する点から誘導基準点までの距離が大きくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導強度算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導強度を算出してもよい。以下、発明3の視線誘導度算出システムにおいて同じである。
〔発明3〕 また、上記目的を達成するために、発明3の視線誘導度算出システムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる屈曲部が突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
更に、視線誘導方向算出手段により、誘導基準点について視線誘導方向が算出され、視線誘導強度算出手段により、誘導基準点について視線誘導強度が算出される。つまり、視線誘導方向および視線誘導強度を視線誘導度として算出することが可能である。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、突出部の頂点付近の点を基準として所定の方向に所定の大きさで誘導されやすい。したがって、視線誘導方向および視線誘導強度を視線誘導度として算出することにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
更に、視線誘導方向算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角のうち鈍角の中心方向が視線誘導方向として算出される。
これにより、画像オブジェクトの内部から突出部の頂点に向かう方向を視線誘導方向として算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、視線誘導方向算出手段は、画像のエッジに沿って誘導基準点またはその近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するようになっている。適切なアイフローを求める観点からは、画像のエッジに沿って誘導基準点を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出するのが好ましいが、誘導基準点を交差する仮想補助線を形成することが計算上困難な場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、画像のエッジに沿って誘導基準点の近傍を交差する仮想補助線を形成したことを想定し、視線誘導方向を算出してもよい。
更に、視線誘導強度算出手段により、誘導基準点またはその近傍を通過する画像のエッジに沿って誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、仮想補助線がなす角度が視線誘導強度として算出される。
画像オブジェクトの突出部の鋭利度合いが大きければ大きいほど、視線が誘導されやすくなる。また、その鋭利度合いが大きいほど、仮想補助線がなす角度が小さくなる。したがって、画像オブジェクトの突出部の鋭利度合いの大きさに応じた視線誘導強度を算出することができるので、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
〔発明〕 さらに、発明の視線誘導度算出システムは、発明1ないし3のいずれかの視線誘導度算出システムにおいて、
前記突出部近似手段は、前記屈曲部を多角形近似するようになっていることを特徴とする。
このような構成であれば、突出部近似手段により、屈曲部が多角形近似される。
これにより、屈曲部を比較的似通った形の突出部に近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
〔発明〕 さらに、発明の視線誘導度算出システムは、発明1ないし4のいずれかの視線誘導度算出システムにおいて、
前記突出部近似手段は、前記屈曲部の両端点の間でかつ前記屈曲部のエッジ上に1または複数の補助点を設定し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を線で結んでなる形状を前記突出部として近似するようになっていることを特徴とする。
このような構成であれば、突出部近似手段により、屈曲部の両端点の間でかつ屈曲部のエッジ上に1または複数の補助点が設定され、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を線で結んでなる形状が突出部として近似される。
これにより、屈曲部を比較的似通った形の突出部に近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
〔発明〕 さらに、発明の視線誘導度算出システムは、発明およびのいずれかの視線誘導度算出システムにおいて、
前記突出部近似手段は、前記屈曲部の両端点を結ぶ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第1補助点設定手段と、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を結んだ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第2補助点設定手段とを有し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を直線で結んでなる多角形を前記突出部として近似するようになっていることを特徴とする。
このような構成であれば、第1補助点設定手段により、屈曲部の両端点を結ぶ直線からエッジまでの距離が最も大きくなる位置に補助点が設定される。また、第2補助点設定手段により、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を結んだ直線からエッジまでの距離が最も大きくなる位置に補助点が設定される。このように補助点が設定されると、突出部近似手段により、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を直線で結んでなる多角形が突出部として近似される。
これにより、屈曲部を比較的似通った形の突出部に近似するとともに、視線誘導度を求めやすい多角形として近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
〔発明〕 さらに、発明の視線誘導度算出システムは、発明の視線誘導度算出システムにおいて、
前記突出部近似手段は、前記屈曲部と前記多角形との距離が所定以下となるまで前記第2補助点設定手段による設定を繰り返し行うようになっていることを特徴とする。
このような構成であれば、突出部近似手段により、屈曲部と多角形との距離が所定以下となるまで第2補助点設定手段による設定が繰り返し行われ、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を直線で結んでなる多角形が突出部として近似される。
これにより、屈曲部をさらに似通った形の突出部に近似することができるので、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
ここで、距離とは、屈曲部の両端点および補助点のうちエッジ上で隣接するもの同士を結んだ直線から、エッジまでの距離が最も大きくなる位置に設定した補助点までの距離をいう。
〔発明〕 さらに、発明の視線誘導度算出システムは、発明1ないしのいずれかの視線誘導度算出システムにおいて、
前記視線誘導度算出手段は、前記突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度を算出するようになっていることを特徴とする。
このような構成であれば、突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度が算出される。
突出部を有する画像オブジェクトが画像に含まれる場合、視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、突出部の頂点およびその近傍を誘導基準点とすることにより、画像が視線をどの方向に誘導しやすいかをさらに適切に算出することができるという効果が得られる。
適切なアイフローを求める観点からは、突出部の頂点を誘導基準点とするのが好ましいが、突出部の頂点が特定しにくい場合や、計算量の低減等の観点から低い精度でアイフローを求める場合は、不適切なアイフローとならない範囲において、突出部の頂点の近傍を誘導基準点としてもよい。
〔発明〕 一方、上記目的を達成するために、発明の視線誘導度算出プログラムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明1の視線誘導度算出システムと同等の作用および効果が得られる。
〔発明10〕 また、上記目的を達成するために、発明10の視線誘導度算出プログラムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明2の視線誘導度算出システムと同等の作用および効果が得られる。
〔発明11〕 また、上記目的を達成するために、発明11の視線誘導度算出プログラムは、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、発明3の視線誘導度算出システムと同等の作用および効果が得られる。
〔発明12〕 一方、上記目的を達成するために、発明12の視線誘導度算出方法は、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明1の視線誘導度算出システムと同等の効果が得られる。
〔発明13〕 また、上記目的を達成するために、発明13の視線誘導度算出方法は、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明2の視線誘導度算出システムと同等の効果が得られる。
〔発明14〕 また、上記目的を達成するために、発明14の視線誘導度算出方法は、
画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする。
これにより、発明3の視線誘導度算出システムと同等の効果が得られる。
〔発明15〕 さらに、上記目的を達成するために、発明15の視線誘導度算出システムは、発明1ないし8のいずれかの視線誘導度算出システムにおいて、
前記突出部近似手段は、前記画像データに基づいて、前記画像に含まれる複数の頂点を含む屈折部を当該屈折部より少ない頂点を含む突出部に近似することを特徴とする。
このような構成であれば、突出部近似手段により、画像データに基づいて、画像に含まれる複数の頂点を含む屈折部がこれより少ない頂点を含む突出部に近似され、視線誘導度算出手段により、突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線誘導度が算出される。
視線は、画像オブジェクトの内部から突出部に向けて誘導されやすい。したがって、屈曲部を突出部に近似し当該突出部に含まれる頂点を誘導基準点とすることにより、明確な突出部を含まない画像であっても、画像が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができるという効果が得られる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができるという効果も得られる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができるという効果も得られる。
ここで、複数の頂点を含む屈折部には、リアス式海岸のような形状が含まれる
〔第1の実施の形態〕
以下、本発明の第1の実施の形態を図面を参照しながら説明する。図1ないし図22は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第1の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクトが視線を誘導する方向および強さを算出する場合について適用したものである。
まず、本発明を適用するレイアウト装置100の構成を図1を参照しながら説明する。
図1は、レイアウト装置100の構成を示すブロック図である。
レイアウト装置100は、図1に示すように、制御プログラムに基づいて演算およびシステム全体を制御するCPU30と、所定領域にあらかじめCPU30の制御プログラム等を格納しているROM32と、ROM32等から読み出したデータやCPU30の演算過程で必要な演算結果を格納するためのRAM34と、外部装置に対してデータの入出力を媒介するI/F38とで構成されており、これらは、データを転送するための信号線であるバス39で相互にかつデータ授受可能に接続されている。
I/F38には、外部装置として、ヒューマンインターフェースとしてデータの入力が可能なキーボードやマウス等からなる入力装置40と、データやテーブル等をファイルとして格納する記憶装置42と、画像信号に基づいて画面を表示する表示装置44とが接続されている。
CPU30は、マイクロプロセッシングユニット(MPU)等からなり、ROM32の所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図2のフローチャートに示す視線誘導度算出処理を実行するようになっている。
図2は、視線誘導度算出処理を示すフローチャートである。
視線誘導度算出処理は、画像オブジェクトが視線を誘導する方向および強さを算出する処理であって、CPU30において実行されると、図2に示すように、まず、ステップS100に移行するようになっている。
ステップS100では、画像データを記憶装置42から読み出し、ステップS102に移行して、読み出した画像データに基づいて、曲線部を有する画像オブジェクトを多角形に近似し、ステップS104に移行して、多角形に近似した画像オブジェクトに対して視線を誘導する基準となる誘導基準点を設定し、ステップS106に移行する。
ステップS106では、設定した誘導基準点について視線を誘導する方向を示す視線誘導方向を算出し、ステップS108に移行して、設定した誘導基準点について視線を誘導する強さを示す視線誘導強度を算出し、一連の処理を終了して元の処理に復帰させる。
次に、ステップS100の画像データ入力処理を図3ないし図5を参照しながら詳細に説明する。
図3は、画像オブジェクト10を含むベクタ画像を示す図である。
ステップS100では、図3に示すように、画像オブジェクト10を含むベクタ画像の画像データを記憶装置42から読み出す。図3の例では、画像オブジェクト10は、直角三角形となっている。
図4は、ベクタ画像データのデータ構造を示す図である。
ベクタ画像データは、図4に示すように、画像オブジェクト10の形状や大きさを数値で表現したデータ構造を有し、SVG等の代表的なデータフォーマットで構成することができる。図4の例では、多角形を描画することを示すタグ(<polygon points>)内に画像オブジェクト10の各頂点の座標を指定している。これは、隣接する指定座標間を直線で描画することにより画像オブジェクト10を形成することを示している。
図5は、ベクタ画像を2次元座標空間上に配置した図である。
ベクタ画像は、図5に示すように、2次元座標空間上に配置することができる。図5の例では、ベクタ画像の左上を原点としてベクタ画像を2次元座標空間上に配置している。
次に、ステップS102の多角形近似処理を図6ないし図12を参照しながら詳細に説明する。
図6は、多角形近似処理を示すフローチャートである。
多角形近似処理は、曲線部を有する画像オブジェクト10を多角形に近似する処理であって、ステップS102において実行されると、図6に示すように、まず、ステップS200に移行するようになっている。
ステップS200では、許容距離を入力装置40から入力し、ステップS202に移行して、読み出したベクタ画像データに基づいて、画像オブジェクト10の曲線部の両端点を取得し、ステップS204に移行する。
ステップS204では、曲線部のエッジ上であって、曲線部の両端点を結んだ直線からエッジまでの距離が最も大きくなる位置に補助点を設定し、ステップS206に移行して、曲線部の両端点およびこれまで設定した各補助点のうちエッジ上で隣接するもの同士を直線で結び多角形を構成し、ステップS208に移行する。
ステップS208では、画像オブジェクト10と、ステップS206で構成した多角形との距離を算出する。例えば、画像オブジェクト10の曲線部の両端点および補助点のうちエッジ上で隣接するもの同士を結んだ直線から、エッジまでの距離が最も大きくなる位置に設置した補助点までの距離を算出する。
ステップS210では、ステップS208で算出した距離が、入力した許容距離以下であるか否かを判定し、算出した距離が許容距離以下であると判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
一方、ステップS210において、ステップs208で算出した距離が許容距離よりも大きいと判定したとき(No)は、ステップS212に移行して、曲線部のエッジ上であって、曲線部の両端点およびこれまで設定した各補助点のうちエッジ上で隣接するもの同士を結んだ直線からエッジまでの距離が最も大きくなる位置に補助点を設定し、ステップS206に移行する。
図7は、曲線部を有する画像オブジェクト10を示す図である。
図7に示すように、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合、誘導基準点を簡単には設定することができない。そのため、このような画像オブジェクト10を多角形に近似する必要がある。
図8は、画像オブジェクト10を三角形に近似する場合を示す図である。
図7の画像オブジェクト10を三角形に近似する場合は、図8に示すように、まず、ベクタ画像データに基づいて曲線部の両端点P0,P1を取得する。次いで、両端点P0,P1を結ぶ直線L01からエッジ10aまでの距離が最も大きくなる位置に補助点P2を設定する。そして、両端点P0,P1および補助点P2のうちエッジ10a上で隣接するもの同士を直線で結び三角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、図7の画像オブジェクト10は、両端点P0,P1および補助点P2で構成される三角形に近似される。
図9は、画像オブジェクト10を四角形に近似する場合を示す図である。
図8の場合において距離が許容距離よりも大きければ、図9に示すように、さらに、端点P0および補助点P2を結ぶ直線L02からエッジ10aまでの距離が最も大きくなる位置に補助点P3を設定する。ここで、補助点P3を最遠点として設定したが、具体的には、これまで形成した直線L01,L02からエッジ10aまでの距離が最も大きくなる位置を最遠点として設定し、その結果、補助点P3がこれに該当した。以下、図10ないし図12において同じである。そして、両端点P0,P1および補助点P2,P3のうちエッジ10a上で隣接するもの同士を直線で結び四角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、図7の画像オブジェクト10は、両端点P0,P1および補助点P2,P3で構成される四角形に近似される。
図10は、画像オブジェクト10を5角形に近似する場合を示す図である。
図9の場合において距離が許容距離よりも大きければ、図10に示すように、さらに、端点P1および補助点P2を結ぶ直線L12からエッジ10aまでの距離が最も大きくなる位置に補助点P4を設定する。そして、両端点P0,P1および補助点P2〜P4のうちエッジ10a上で隣接するもの同士を直線で結び5角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、図7の画像オブジェクト10は、両端点P0,P1および補助点P2〜P4で構成される5角形に近似される。
また、画像オブジェクト10が多角形で構成されている場合は、その角数を低減した多角形に近似することもできる。
図11は、リアス式海岸のような形状をした8角形の画像オブジェクト10を四角形に近似する場合を示す図である。
8角形の画像オブジェクト10を四角形に近似する場合は、図11に示すように、まず、画像オブジェクト10の頂点のうちいずれかを基準点P10とし、基準点P10からの距離が最も大きくなる他の頂点を基準点P11として設定する。次いで、基準点P10,P11の間にある他の頂点のうち基準点P10,P11を結ぶ直線L110からの距離が最も大きくなるものを基準点P12として設定する。そして、基準点P10,P12を直線で結び、基準点P12,P11を直線で結び四角形を構成する。ここで、誤差が許容誤差以下であれば、多角形近似処理が終了し、8角形の画像オブジェクト10は、基準点P10〜P12を含んで構成される四角形に近似される。
なお、複雑な境界を単純化する場合の2点の選び方は,必ずしも選んだ1点から距離の最も遠い点を選ぶ必要はない。単純化したい部分の両端2点を自由に選ぶことが可能である。また、画像オブジェクト10を角数を低減した多角形に近似するか否かは、基準点P10,P11について言えば、例えば、何らかの指標で基準点P10,P11の間が複雑であると判定することにより行う。この判定は、手動で行ってもよいし、自動で行ってもよい。
図12は、8角形の画像オブジェクト10を5角形に近似する場合を示す図である。
図11の場合において距離が許容距離よりも大きければ、図12に示すように、さらに、基準点P10,P12の間にある他の頂点のうち基準点P10,P12を結ぶ直線L112からの距離が最も大きくなるものを基準点P13として設定する。そして、基準点P10,P13を直線で結び、基準点P13,P12を直線で結び、基準点P12,P11を直線で結び5角形を構成する。ここで、距離が許容距離以下であれば、多角形近似処理が終了し、8角形の画像オブジェクト10は、基準点P10〜P13を含んで構成される5角形に近似される。
次に、ステップS104の誘導基準点設定処理を図13を参照しながら詳細に説明する。
ステップS104では、多角形に近似した画像オブジェクト10の各頂点を誘導基準点として設定する。以下、説明の単純化を図るため、図4の画像オブジェクト10(直角三角形)を例にとって説明する。図4に示すように、画像オブジェクト10の各頂点A〜Cの座標がベクタ画像データに含まれている場合は、各頂点A〜Cの座標をベクタ画像データから取得することにより誘導基準点を設定することができる。
なお、各頂点A〜Cの座標がベクタ画像データに含まれていない場合は、画像オブジェクト10の外郭線の方程式を解くことにより求めることができる。
図13は、誘導基準点を求める計算例を示す図である。
図13の例では、画像オブジェクト10の外郭線のうち頂点A,Bを結ぶ直線(以下、直線ABという。)の方程式がX=2(1≦Y≦5)、画像オブジェクト10の外郭線のうち頂点B,Cを結ぶ直線(以下、直線BCという。)の方程式がY=5(2≦X≦7)、画像オブジェクト10の外郭線のうち頂点C,Aを結ぶ直線(以下、直線CAという。)の方程式がY=2X−3(2≦X≦7)で表されるので、各頂点A〜Cの座標は、それら直線の方程式を解くことにより算出することができる。その結果、各頂点A〜Cの座標は、A(2,1)、B(2,5)、C(5,7)として算出することができる。
次に、ステップS106の視線誘導方向算出処理を図14ないし図17を参照しながら詳細に説明する。
ステップS106では、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向を視線誘導方向として算出する。
図14は、誘導基準点における視線誘導方向を示す図である。
図14に示すように、誘導基準点A〜Cにおける視線誘導方向をそれぞれa〜cとし、誘導基準点Aの仮想補助線を直線ABおよび直線CAとし、誘導基準点Bの仮想補助線を直線ABおよび直線BCとし、誘導基準点Cの仮想補助線を直線CAおよび直線BCとすると、視線誘導方向a〜cは、下式(1)〜(3)により、(−2.5,−4)、(−2.5,2)および(5,2)として算出することができる。
Figure 0004285367
Figure 0004285367
Figure 0004285367
さらに、それぞれ大きさ「1」のベクトルに正規化すると、視線誘導方向a〜cは、下式(4)〜(6)により、(−0.53,−0.85)、(−0.78,0.62)および(0.93,0.37)として算出することができる。
Figure 0004285367
Figure 0004285367
Figure 0004285367
図15は、視線誘導方向aを求めるベクトル合成図である。
また、3時の方向を0°として視線誘導方向の角度を求めると、視線誘導方向aについては、図15に示すように、下式(7)により「122°」として算出することができる。
Figure 0004285367
図16は、視線誘導方向bを求めるベクトル合成図である。
同様に、視線誘導方向bについては、図16に示すように、下式(8)により「219°」として算出することができる。
Figure 0004285367
図17は、視線誘導方向cを求めるベクトル合成図である。
同様に、視線誘導方向cについては、図17に示すように、下式(9)により「338°」として算出することができる。
Figure 0004285367
次に、ステップS108の視線誘導強度算出処理を図18を参照しながら詳細に説明する。
ステップS108では、各誘導基準点ごとに、画像オブジェクト10の重心Gから誘導基準点までの距離(以下、重心距離という。)を視線誘導強度として算出する。
図18は、誘導基準点からの重心距離を示す図である。
画像オブジェクト10の重心Gの座標は、図18に示すように、下式(10)により(3.67,3.67)として算出することができる。
Figure 0004285367
したがって、各誘導基準点A〜Cからの重心距離は、下式(11)〜(13)により、「3.14」、「2.13」および「3.59」として算出することができる。
Figure 0004285367
Figure 0004285367
Figure 0004285367
図19は、各誘導基準点の視線誘導方向および視線誘導強度を示す表である。
以上により、誘導基準点Aにおける視線誘導方向および視線誘導強度は、図19に示すように、(−0.53,−0.85)および「3.14」として算出することができる。これは、画像オブジェクト10の頂点Aを基準として(−0.53,−0.85)の方向に「3.14」の大きさで視線が誘導されることを示している。
誘導基準点Bにおける視線誘導方向および視線誘導強度は、(−0.78,0.62)および「2.13」として算出することができる。これは、画像オブジェクト10の頂点Bを基準として(−0.78,0.62)の方向に「2.13」の大きさで視線が誘導されることを示している。
誘導基準点Cにおける視線誘導方向および視線誘導強度は、(0.93,0.37)および「3.59」として算出することができる。これは、画像オブジェクト10の頂点Cを基準として(0.93,0.37)の方向に「3.59」の大きさで視線が誘導されることを示している。
次に、本実施の形態の動作を説明する。
レイアウト装置100では、ステップS100を経て、ベクタ画像データが読み出される。このとき、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合は、ステップS102,S104を経て、読み出されたベクタ画像データに基づいて、画像オブジェクト10が多角形に近似され、近似された画像オブジェクト10の各頂点が誘導基準点として設定される。
そして、ステップS106を経て、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向が視線誘導方向として算出される。また、ステップS108を経て、各誘導基準点ごとに重心距離が視線誘導強度として算出される。
このように、画像オブジェクト10について視線誘導方向および視線誘導強度が算出されると、視線誘導方向および視線誘導強度に基づいて、画像オブジェクト10が視線をどの方向に誘導しやすいかを定量的に把握することができる。
視線誘導方向および視線誘導強度は、レイアウトに応用することができる。
図20は、レイアウトテンプレートを用いて誌面をレイアウトする場合を示す図である。
図20に示すように、タイトル情報を格納するためのタイトル情報格納枠362と、文字情報を格納するための文字情報格納枠364と、画像情報を格納するための画像情報格納枠366とをレイアウト領域360に配置したレイアウトテンプレートを用いて誌面をレイアウトする場合において、タイトル情報格納枠362に記事のタイトル情報を、文字情報格納枠364に記事の文字情報を格納し、さらに、右図のような画像オブジェクト12a〜12dを画像情報格納枠366に格納することを考える。画像オブジェクト12aは、例えば、ロゴなどのマークである。また、画像オブジェクト12b〜12dは、例えば、事業領域などのアピールポイントであり、オブジェクト内の番号はアピールしたい優先順位を示している。
図21は、視線誘導案内情報14を表示した場合を示す図である。
編集者は、画像オブジェクト12aに対して画像オブジェクト12b〜12dをどのように配置していいか迷うことが多い。そこで、図21に示すように、画像オブジェクト12aの各誘導基準点に対応させて視線誘導案内情報14を表示し、画像オブジェクト12aのアイフローを編集者に通知する。
図22は、視線誘導案内情報14を参考にして画像オブジェクト12a〜12dを配置した場合を示す図である。
編集者は、視線誘導案内情報14を参照しながら、図22に示すように、視線誘導方向に沿って視線誘導強度が最も大きい位置に画像オブジェクト12bを配置し、同様に、視線誘導方向に沿って視線誘導強度が2番目、3番目に大きい位置に画像オブジェクト12c,12dを配置すればよい。このように画像オブジェクト12b〜12dを配置すれば、読み手が画像オブジェクト12aを見たときに画像オブジェクト12b〜12dの順で視線が流れやすくなり、編集者が期待する優先順位のアピールの効果が得られる。
このようにして、本実施の形態では、ベクタ画像データに基づいて画像オブジェクト10を多角形に近似し、近似した画像オブジェクト10のなかから誘導基準点を設定し、当該設定した誘導基準点について視線誘導方向および視線誘導強度を算出するようになっている。
視線は、画像オブジェクト10の内部から頂点に向けて誘導されやすい。したがって、画像オブジェクト10を多角形に近似してから誘導基準点を設定することにより、明確な突出部を含まない画像オブジェクト10であっても、画像オブジェクト10が視線をどの方向に誘導しやすいかを定量的かつ比較的適切に算出することができるので、従来に比して、比較的適切なアイフローを定量的に求めることができる。また、アイカメラ等の機器を別途設ける必要がないので、装置が大規模となったり、多大なコストが発生したりすることがなく、従来に比して、装置の小型化および低コスト化を図ることができる。さらに、学習という方法により視線誘導度を算出するものではないので、適切なアイフローを比較的確実に求めることができる。
さらに、本実施の形態では、曲線部の両端点P0,P1を結ぶ直線からエッジ10aまでの距離が最も大きくなる位置に補助点を設定し、両端点P0,P1およびこれまで設定した各補助点のうちエッジ10a上で隣接するもの同士を結んだ直線からエッジ10aまでの距離が最も大きくなる位置に補助点を設定し、両端点P0,P1およびこれまで設定した各補助点のうちエッジ10a上で隣接するもの同士を直線で結んで多角形を構成するようになっている。
これにより、曲線部を比較的似通った形の多角形に近似するとともに、誘導基準点を設定しやすい多角形として近似することができるので、明確な突出部を含まない画像オブジェクト10であっても、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
さらに、本実施の形態では、画像オブジェクト10と多角形との距離が所定以下となるまで補助点の設定を繰り返し行うようになっている。
これにより、曲線部をさらに似通った形の多角形に近似することができるので、明確な突出部を含まない画像オブジェクト10であっても、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
さらに、本実施の形態では、多角形に近似した画像オブジェクト10の頂点を誘導基準点として設定するようになっている。
視線は、画像オブジェクト10の内部から頂点に向けて誘導されやすい。したがって、画像オブジェクト10の頂点を誘導基準点として設定することにより、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
さらに、本実施の形態では、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向を視線誘導方向として算出するようになっている。
これにより、画像オブジェクト10の内部から頂点に向かう方向を視線誘導方向として算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
さらに、本実施の形態では、誘導基準点からの重心距離を視線誘導強度として算出するようになっている。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。また、その頂点角が鋭利になるほど、重心距離が大きくなる。したがって、画像オブジェクト10の頂点角の大きさに応じた視線誘導強度を算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
上記第1の実施の形態において、ステップS102は、発明1、3、4ないし8、12、14若しくは15の突出部近似手段、または発明9若しくは11の突出部近似ステップに対応し、ステップS104〜S108は、発明1、3、8、12若しくは14の視線誘導度算出手段、または発明9若しくは11の視線誘導度算出ステップに対応している。また、ステップS204は、発明6の第1補助点設定手段に対応し、ステップS212は、発明7の第2補助点設定手段に対応している。
〔第2の実施の形態〕
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図23ないし図26は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第2の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクト10が視線を誘導する方向および強さを算出する場合について適用したものであり、上記第1の実施の形態と異なるのは、画像オブジェクト10の外郭線のうち誘導基準点と対向する辺(以下、対向辺という。)から誘導基準点までの距離を視線誘導強度として算出する点にある。以下、上記第1の実施の形態と異なる部分についてのみ説明し、上記第1の実施の形態と重複する部分については同一の符号を付して説明を省略する。
ステップS108の視線誘導強度算出処理を図23ないし図26を参照しながら詳細に説明する。
ステップS108では、各誘導基準点ごとに、誘導基準点を視線誘導方向に通過する補助線を仮想的に形成し、仮想補助線が対向辺と交差する点から誘導基準点までの距離(以下、懐距離という。)を視線誘導強度として算出する。
図23は、誘導基準点からの懐距離を示す図である。
図24は、仮想補助線が対向辺と交差する点の座標を求める計算例を示す表である。
懐距離を求めるには、まず、仮想補助線が対向辺と交差する点の座標を求める。誘導基準点Aについては、図23および図24に示すように、仮想補助線の方程式がy=1.6x−2.2、対向辺の方程式がy=5で表されるので、2直線の交点A'の座標は、それら直線の方程式を解くことにより算出することができる。その結果、交点A'の座標は、(4.5,5)として算出することができる。
誘導基準点Bについては、仮想補助線の方程式がy=−0.8x+6.6、対向辺の方程式がy=0.8x−0.6で表されるので、2直線の交点B'の座標は、それら直線の方程式を解き、(4.5,3)として算出することができる。
誘導基準点Cについては、仮想補助線の方程式がy=0.4x+2.2、対向辺の方程式がx=2で表されるので、2直線の交点C'の座標は、それら直線の方程式を解き、(2,3)として算出することができる。
図25は、懐距離を求める計算例を示す表である。
次に、各誘導基準点A〜Cからの懐距離を交点A'〜C'の座標に基づいて算出する。誘導基準点Aからの懐距離は、交点A'から誘導基準点Aまでの距離となるので、図25に示すように、「4.72」として算出することができる。
誘導基準点Bからの懐距離は、交点B'から誘導基準点Bまでの距離となるので、「3.20」として算出することができる。
誘導基準点Cからの懐距離は、交点C'から誘導基準点Cまでの距離となるので、「5.38」として算出することができる。
図26は、各誘導基準点の視線誘導方向および視線誘導強度を示す表である。
以上により、誘導基準点Aにおける視線誘導方向および視線誘導強度は、図26に示すように、(−0.53,−0.85)および「4.72」として算出することができる。これは、画像オブジェクト10の頂点Aを基準として(−0.53,−0.85)の方向に「4.72」の大きさで視線が誘導されることを示している。
誘導基準点Bにおける視線誘導方向および視線誘導強度は、(−0.78,0.62)および「3.20」として算出することができる。これは、画像オブジェクト10の頂点Bを基準として(−0.78,0.62)の方向に「3.20」の大きさで視線が誘導されることを示している。
誘導基準点Cにおける視線誘導方向および視線誘導強度は、(0.93,0.37)および「5.38」として算出することができる。これは、画像オブジェクト10の頂点Cを基準として(0.93,0.37)の方向に「5.38」の大きさで視線が誘導されることを示している。
次に、本実施の形態の動作を説明する。
レイアウト装置100では、ステップS100を経て、ベクタ画像データが読み出される。このとき、曲線部を有する画像オブジェクト10がベクタ画像に含まれる場合は、ステップS102,S104を経て、読み出されたベクタ画像データに基づいて、画像オブジェクト10が多角形に近似され、近似された画像オブジェクト10の各頂点が誘導基準点として設定される。
そして、ステップS106を経て、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向が視線誘導方向として算出される。また、ステップS108を経て、各誘導基準点ごとに懐距離が視線誘導強度として算出される。
このようにして、本実施の形態では、誘導基準点からの懐距離を視線誘導強度として算出するようになっている。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。また、その頂点角が鋭利になるほど、懐距離が大きくなる。したがって、画像オブジェクト10の頂点角の大きさに応じた視線誘導強度を算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかを比較的適切に算出することができる。
上記第2の実施の形態において、ステップS102は、発明2、4ないし8、13若しくは15の突出部近似手段、または発明10の突出部近似ステップに対応し、ステップS104〜S108は、発明2、8若しくは13の視線誘導度算出手段、または発明10の視線誘導度算出ステップに対応している。また、ステップS204は、発明6の第1補助点設定手段に対応し、ステップS212は、発明7の第2補助点設定手段に対応している。
〔第3の実施の形態〕
以下、本発明の第3の実施の形態を図面を参照しながら説明する。図27ないし図30は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法の第3の実施の形態を示す図である。
本実施の形態は、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクトが視線を誘導する方向および強さを算出する場合について適用したものである。上記第1の実施の形態と異なるのは、エッジ抽出後の画像オブジェクトの点数に基づいて、近似処理を行うか否かの判定処理を行う点にある。以下、上記第1の実施の形態と異なる部分についてのみ説明し、上記第1の実施の形態と重複する部分については同一の符号を付して説明を省略する。
本実施の形態においては、図27に示すように、上記第1の実施の形態における図2に示すフローチャートのステップS100と、ステップS102との間に画像データ解析処理及びこの処理結果に基づき多角形近似処理を行うか否かを判定する処理が新たに挿入されることになる。
つまり、上記CPU30は、ROM32の所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図27のフローチャートに示す視線誘導度算出処理を実行するようになっている。
図27は、第3の実施の形態における視線誘導度算出処理を示すフローチャートである。
視線誘導度算出処理は、画像オブジェクトが視線を誘導する方向および強さを算出する処理であって、CPU30において実行されると、図27に示すように、まず、ステップS300に移行するようになっている。
ステップS300では、画像データを記憶装置42から読み出し、ステップS302に移行して、読み出した画像データに基づいて当該画像データの解析処理を行い、ステップS304に移行して、解析処理の結果に基づいて多角形近似処理を行うか否かを判定し、行うと判定した場合(Yes)は、ステップS306に移行する。ここで、ステップS304において、解析処理を行わないと判定された場合(No)は、その画像データは多角形近似処理を行う必要がないと判断される。
ステップS306では、画像オブジェクトを多角形に近似し、ステップS308に移行して、多角形に近似した画像オブジェクトに対して視線を誘導する基準となる誘導基準点を設定し、ステップS310に移行する。
ステップS310では、設定した誘導基準点について視線を誘導する方向を示す視線誘導方向を算出し、ステップS312に移行して、設定した誘導基準点について視線を誘導する強さを示す視線誘導強度を算出し、一連の処理を終了して元の処理に復帰させる。
ここで、ステップS300、ステップS306〜ステップS312の処理は、上記第1の実施の形態におけるステップS100、ステップS102〜ステップS108の処理と同じ処理となるので、本実施の形態においては、ステップS302及びステップS304の処理を説明する。
以下、ステップS302の画像データ解析処理及びステップS304の近似判定処理を図28ないし図30を参照しながら詳細に説明する。
図28は、エッジ抽出後の曲線部を含む画像オブジェクト10を示す図である。
ステップS302においては、ステップS300において取得された図28の画像オブジェクト10に対し、まず、この画像オブジェクト10のエッジを抽出する。抽出されたエッジは、図28に示すように画像オブジェクトの形状に沿った点列によって示される。また、このような画像オブジェクト10のSVG形式のベクタ画像データは、図29に示すように表現される。
図29は、曲線部を有する画像オブジェクト10のベクタ画像データの構造を示す図である。
画像データ解析処理においては、ベクタ画像データ中における、多角形を描画することを示すタグ(<polyline points>)内の構成を解析する。この解析により、図29の(1)における、タグ(<polyline points>)内には、図28の画像オブジェクト10の直線部分(1)の両端点の座標が含まれていることが解り、図29の(2)におけるタグ(<polyline points>)内には、図28の画像オブジェクト10の曲線部分(2)の各点の座標(全部で27点)が含まれていることが解る。
一般に、SVG形式のベクタ画像データにおいて、図28における直線部分(1)及び曲線部分(2)は、多角形として表現される。SVG形式において、この座標点は、通常、直線であれば、点数が2つ、三角形であれば点数が4つ、四角形であれば点数が5つといったように、多角形の角数に応じて増えていく。また、三角形、四角形等の単純な形状の多角形であれば、図4の三角形のベクタ画像データに示すように、4つの座標点のうち、最初の座標点と最後の座標点とが同じ座標となり、これら各点を直線でつなぐことで、当該直線により閉じた図形が形成される。
つまり、本実施の形態において、ステップS302の画像データ解析処理においては、SVG形式のベクタ画像データの上記特徴を踏まえ、ベクタ画像データに含まれるタグ(<polyline points>)内の構成を解析することで、画像オブジェクト10を構成する各図形部分の座標点数及び図形が閉じているか否かを示す情報を取得する。
一方、ステップS304では、画像データ解析処理の解析結果に基づき、多角形近似処理を行うか否かを判定する。この判定処理は、記憶装置42に記憶された判定処理用の情報に基づいて行われる。この判定処理用の情報には、多角形近似処理を行うか否かを判定するための条件情報が含まれている。本実施の形態において、判定処理用の条件情報は、上記解析により取得した情報における、座標点の数が6以上で、且つこれら座標点を直線で結んだ結果が閉じた図形となっていない場合に多角形近似処理を行うと判定するという内容ものであるとする。
次に、上記図29のベクタ画像データを例に本実施の形態の動作を説明する。
レイアウト装置100では、ステップS100を経て、図28に示す、曲線部を含む画像オブジェクト10のベクタ画像データが読み出される。ステップS302では、図29に示すベクタ画像データにおける(1)のタグ(<polyline points>)を解析することにより、座標点数が、(1296,1296)、(7896,5696)の2個で、始点の座標と終点の座標とが異なることから図形が閉じていないことを示す情報が取得され、一方、図29における(2)のタグ(<polyline points>)を解析することにより、座標点数が、(1296,1296)、、(1004,2125)、・・・中略・・・、(7854,5709)、(7896,5696)の27個で、始点の座標と終点の座標とが異なることから図形が閉じていないことを示す情報が取得される。
従って、ステップS304では、ステップS302の解析結果及び記憶装置42から読み出した条件情報に基づき、まず、図29の(1)の解析結果を条件情報と照らし合わせる。図29の(1)の解析結果から、座標点数が2個であるので、条件情報の座標点の数が6以上という条件を満たしていないため、この(1)に対応する図28の直線部分(1)に対しては、多角形近似処理を行わないと判定する。次に、図29の(2)の解析結果を条件情報と照らし合わせる。図29(2)の解析結果から、座標点数は27個と、条件情報の座標点の数が6以上という条件を満たしており、更に、図形が閉じていないことを示す情報から、条件情報の閉じた図形となっていないという条件も満たす。これにより、図29の(2)に対応する図28の(2)の曲線部分に対しては、多角形近似処理を行うと判定する。ステップS304において多角形近似処理を行うと判定されると、ステップS306に移行し、図30に示すように、該当する図形部分(図30(a)の(2))が、多角形近似処理によって、図30(b)に示すように多角形近似される。そして、ステップS308を経て、近似された画像オブジェクト10の各頂点が誘導基準点として設定される。
図30(a)は、曲線部を含む画像オブジェクト10を示す図であり、(b)は、(a)における(2)の部分を多角形近似した図である。
更に、ステップS310を経て、各誘導基準点ごとに、画像オブジェクト10の外郭に沿って誘導基準点を交差する2本の補助線を仮想的に形成し、仮想補助線がなす角のうち鈍角の2等分線が誘導基準点から外向きに伸びる方向が視線誘導方向として算出される。また、ステップS312を経て、各誘導基準点ごとに懐距離が視線誘導強度として算出される。
このようにして、本実施の形態では、誘導基準点からの懐距離を視線誘導強度として算出するようになっている。
なお、上記ステップS302及びステップS304の処理は、第1の実施の形態における図11及び図12に示す、リアス式海岸のような形状をした画像オブジェクトに対して、多角形近似をするか否かを判定するのにも有効である。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。また、その頂点角が鋭利になるほど、重心距離が大きくなる。したがって、画像オブジェクト10の頂点角の大きさに応じた視線誘導強度を算出することができるので、画像オブジェクト10が視線をどの方向に誘導しやすいかをさらに適切に算出することができる。
なお、上記第1ないし第3の実施の形態においては、誘導基準点からの重心距離または懐距離を視線誘導強度として算出するように構成したが、これに限らず、画像オブジェクト10の頂点角を視線誘導強度として算出するように構成することもできる。
画像オブジェクト10の頂点角が鋭利になればなるほど、視線が誘導されやすい。したがって、画像オブジェクト10が視線をどの方向に誘導しやすいかを比較的適切に算出することができる。
さらに、誘導基準点からの重心距離、懐距離または頂点角に所定の重み付けを行い、それらを加算したものを視線誘導強度として算出するように構成することもできる。
また、上記第1および第2の実施の形態においては、画像オブジェクト10が直角三角形である場合を例にとって説明したが、これに限らず、画像オブジェクト10が他の三角形形状、4角形以上の多角形形状その他の幾何学形状であっても、上記第1および第2の実施の形態と同じ要領で視線誘導方向および視線誘導強度を算出することができる。
また、上記第1ないし第3の実施の形態においては、画像オブジェクト10の視線誘導方向および視線誘導強度を算出するように構成したが、これに限らず、文字その他の記号であっても、それら1つ1つをまたはそれらの集合を画像として見立てれば、上記第1ないし第3の実施の形態と同じ要領で視線誘導方向および視線誘導強度を算出することができる。
また、上記第1ないし第3の実施の形態において、図2、図6及び図27のフローチャートに示す処理を実行するにあたってはいずれも、ROM32にあらかじめ格納されている制御プログラムを実行する場合について説明したが、これに限らず、これらの手順を示したプログラムが記憶された記憶媒体から、そのプログラムをRAM34に読み込んで実行するようにしてもよい。
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、あらゆる記憶媒体を含むものである。図31は、コンピュータで読み取り可能な記憶媒体Rの1つであるCD−ROMを示したものであり、このCD−ROMからなる記憶媒体Rには、本発明をコンピュータシステムを用いて実現するための制御プログラムPが記録されていることを示している。
また、上記第1ないし第3の実施の形態においては、本発明に係る視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法を、画像オブジェクト10が視線を誘導する方向および強さを算出する場合について適用したが、これに限らず、本発明の主旨を逸脱しない範囲で他の場合にも適用可能である。
レイアウト装置100の構成を示すブロック図である。 視線誘導度算出処理を示すフローチャートである。 画像オブジェクト10を含むベクタ画像を示す図である。 ベクタ画像データのデータ構造を示す図である。 ベクタ画像を2次元座標空間上に配置した図である。 多角形近似処理を示すフローチャートである。 曲線部を有する画像オブジェクト10を示す図である。 画像オブジェクト10を三角形に近似する場合を示す図である。 画像オブジェクト10を四角形に近似する場合を示す図である。 画像オブジェクト10を5角形に近似する場合を示す図である。 8角形の画像オブジェクト10を四角形に近似する場合を示す図である。 8角形の画像オブジェクト10を5角形に近似する場合を示す図である。 誘導基準点を求める計算例を示す図である。 誘導基準点における視線誘導方向を示す図である。 視線誘導方向aを求めるベクトル合成図である。 視線誘導方向bを求めるベクトル合成図である。 視線誘導方向cを求めるベクトル合成図である。 誘導基準点からの重心距離を示す図である。 各誘導基準点の視線誘導方向および視線誘導強度を示す表である。 レイアウトテンプレートを用いて誌面をレイアウトする場合を示す図である。 視線誘導案内情報14を表示した場合を示す図である。 視線誘導案内情報14を参考にして画像オブジェクト12a〜12dを配置した場合を示す図である。 誘導基準点からの懐距離を示す図である。 仮想補助線が対向辺と交差する点の座標を求める計算例を示す表である。 懐距離を求める計算例を示す表である。 各誘導基準点の視線誘導方向および視線誘導強度を示す表である。 第3の実施の形態における視線誘導度算出処理を示すフローチャートである。 エッジ抽出後の曲線部を含む画像オブジェクト10を示す図である。 曲線部を有する画像オブジェクト10のベクタ画像データの構造を示す図である。 (a)は、曲線部を含む画像オブジェクト10を示す図であり、(b)は、(a)における(2)の部分を多角形近似した図である。 制御プログラムが記録されたコンピュータ読み取り可能な記録媒体の一例を示す概念図である。
符号の説明
100…レイアウト装置, 10,12a〜12d…画像オブジェクト, 10a…エッジ, P0,P1…端点, P2〜P4…補助点, P10〜P13…基準点, L01,L02,L12,L110,L112…直線, 14…視線誘導案内情報, 21〜28…空間フィルタ, 30…CPU, 32…ROM, 34…RAM, 38…I/F, 39…バス, 40…入力装置, 42…記憶装置, 44…表示装置, 360…レイアウト領域, 362…タイトル情報格納枠, 364…文字情報格納枠, 366…画像情報格納枠

Claims (15)

  1. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え
    前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
    前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。
  2. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
    前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
    前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。
  3. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するシステムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似手段と、前記突出部近似手段で近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出手段とを備え、
    前記視線誘導度算出手段は、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出手段と、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出手段とを有し、
    前記視線誘導方向算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出手段は、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出システム。
  4. 請求項1ないし3のいずれかにおいて、
    前記突出部近似手段は、前記屈曲部を多角形近似するようになっていることを特徴とする視線誘導度算出システム。
  5. 請求項1ないし4のいずれかにおいて、
    前記突出部近似手段は、前記屈曲部の両端点の間でかつ前記屈曲部のエッジ上に1または複数の補助点を設定し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を線で結んでなる形状を前記突出部として近似するようになっていることを特徴とする視線誘導度算出システム。
  6. 請求項およびのいずれかにおいて、
    前記突出部近似手段は、前記屈曲部の両端点を結ぶ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第1補助点設定手段と、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を結んだ直線から前記エッジまでの距離が最も大きくなる位置に前記補助点を設定する第2補助点設定手段とを有し、前記屈曲部の両端点および前記補助点のうち前記エッジ上で隣接するもの同士を直線で結んでなる多角形を前記突出部として近似するようになっていることを特徴とする視線誘導度算出システム。
  7. 請求項において、
    前記突出部近似手段は、前記屈曲部と前記多角形との距離が所定以下となるまで前記第2補助点設定手段による設定を繰り返し行うようになっていることを特徴とする視線誘導度算出システム。
  8. 請求項1ないしのいずれかにおいて、
    前記視線誘導度算出手段は、前記突出部近似手段で近似した突出部の頂点またはその近傍を誘導基準点としてその誘導基準点について前記視線誘導度を算出するようになっていることを特徴とする視線誘導度算出システム。
  9. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
    前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。
  10. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
    前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。
  11. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出するプログラムであって、
    前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとからなる処理をコンピュータに実行させるためのプログラムを含み、
    前記視線誘導度算出ステップは、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップは、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出プログラム。
  12. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
    突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
    前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジを含んで外郭が形成される画像オブジェクトの重心から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。
  13. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
    突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
    前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鋭角の2等分線が、前記エッジを含んで外郭が形成される画像オブジェクトの当該外郭線と交差する点から前記誘導基準点までの距離を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。
  14. 画像を構成する画像データに基づいて、当該画像によって視線が誘導される度合いを算出する方法であって、
    突出部近似手段が、前記画像データに基づいて、前記画像に含まれる曲線を含む屈曲部を頂点を含む突出部に近似する突出部近似ステップと、視線誘導度算出手段が、前記突出部近似ステップで近似した突出部に含まれる頂点を誘導基準点としてその誘導基準点について視線を誘導する度合いを示す視線誘導度を算出する視線誘導度算出ステップとを含み、
    前記視線誘導度算出ステップは、視線誘導方向算出手段が、前記誘導基準点について視線を誘導する方向である視線誘導方向を算出する視線誘導方向算出ステップと、視線誘導強度算出手段が、前記誘導基準点について視線を誘導する強さである視線誘導強度を算出する視線誘導強度算出ステップとを含み、
    前記視線誘導方向算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角のうち鈍角の中心方向を前記視線誘導方向として算出し、
    前記視線誘導強度算出ステップにおいては、前記誘導基準点またはその近傍を通過する画像のエッジに沿って前記誘導基準点またはその近傍を交差する2本の補助線を形成したことを想定した場合に、前記仮想補助線がなす角度を前記視線誘導強度として算出し、
    前記視線誘導度は、前記視線誘導方向と、前記視線誘導強度との組み合わせからなることを特徴とする視線誘導度算出方法。
  15. 請求項1ないし8のいずれかにおいて、
    前記突出部近似手段は、前記画像データに基づいて、前記画像に含まれる複数の頂点を含む屈折部を当該屈折部より少ない頂点を含む突出部に近似することを特徴とする視線誘導度算出システム。
JP2004244956A 2003-10-29 2004-08-25 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法 Expired - Fee Related JP4285367B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004244956A JP4285367B2 (ja) 2003-10-29 2004-08-25 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法
US10/973,427 US20050138549A1 (en) 2003-10-29 2004-10-27 Line-of-sight guiding degree calculation system and line-of-sight guiding degree calculation program as well as line-of-sight guiding degree calculation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003369237 2003-10-29
JP2004244956A JP4285367B2 (ja) 2003-10-29 2004-08-25 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法

Publications (2)

Publication Number Publication Date
JP2005152600A JP2005152600A (ja) 2005-06-16
JP4285367B2 true JP4285367B2 (ja) 2009-06-24

Family

ID=34680587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004244956A Expired - Fee Related JP4285367B2 (ja) 2003-10-29 2004-08-25 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法

Country Status (2)

Country Link
US (1) US20050138549A1 (ja)
JP (1) JP4285367B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080317355A1 (en) * 2007-06-21 2008-12-25 Trw Automotive U.S. Llc Method and apparatus for determining characteristics of an object from a contour image
CN112288631A (zh) * 2020-10-27 2021-01-29 四川天艺生态园林集团股份有限公司 一种含孔洞的矢量多边形区域拼接方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1458137A (fr) * 1965-03-16 1966-03-04 Nord Aviation Procédé et dispositif de guidage d'un aérodyne
US3513315A (en) * 1966-11-14 1970-05-19 Bofors Ab System for determining the displacement of an object from a line of sight
US4967979A (en) * 1973-09-21 1990-11-06 The United States Of America As Represented By The Secretary Of The Navy Command guidance technique for line-of-sight missile
US4378918A (en) * 1981-01-09 1983-04-05 The United States Of America As Represented By The Secretary Of The Army Quasi-stabilization for line of sight guided missiles
EP0222571A3 (en) * 1985-10-31 1988-05-04 British Aerospace Public Limited Company Line of sight missile guidance
FR2647540B1 (fr) * 1989-05-23 1994-03-25 Thomson Csf Dispositif de ralliement de missile
DE4339187C1 (de) * 1993-11-16 1995-04-13 Mafo Systemtech Gmbh & Co Kg Verfahren zur Bestimmung der Sichtliniendrehraten mit einem starren Suchkopf
FR2782811B1 (fr) * 1998-09-02 2000-11-10 Aerospatiale Procede et dispositif de guidage d'un engin volant, notamment un missile, sur une cible
US6158694A (en) * 1998-10-13 2000-12-12 Raytheon Company Spacecraft inertial attitude and rate sensor control system
US6193188B1 (en) * 1998-11-12 2001-02-27 Raytheon Company Line of sight pointing mechanism for sensors

Also Published As

Publication number Publication date
US20050138549A1 (en) 2005-06-23
JP2005152600A (ja) 2005-06-16

Similar Documents

Publication Publication Date Title
JP4396430B2 (ja) 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法
EP3620981B1 (en) Object detection method, device, apparatus and computer-readable storage medium
EP1770638B1 (en) Displaying images according to an image evaluation value
US20180068461A1 (en) Posture estimating apparatus, posture estimating method and storing medium
JP6000602B2 (ja) 体検出方法及び物体検出装置
US8207987B2 (en) Method and apparatus for producing digital cartoons
US10783351B2 (en) System and method for sensing facial gesture
JP3943638B2 (ja) Ocrを利用しない文書画像中のドロップワードの自動認識方法
JP4061379B2 (ja) 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体
US20050234323A1 (en) Gaze guidance degree calculation system, gaze guidance degree calculation program, storage medium, and gaze guidance degree calculation method
CN112560584A (zh) 一种人脸检测方法及装置、存储介质、终端
US7542589B2 (en) Road position detection
JP4285367B2 (ja) 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法
KR102068489B1 (ko) 3차원 객체 생성 장치
WO2017034419A1 (en) A process, system and apparatus for machine colour characterisation of digital media
KR101909485B1 (ko) 프로그램, 정보기억매체 및 인식장치
KR101145672B1 (ko) 미소 훈련을 위한 미소 분석 시스템
CN112734747A (zh) 一种目标检测方法、装置、电子设备和存储介质
AU2019433083B2 (en) Control method, learning device, discrimination device, and program
JP4396450B2 (ja) 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法
CN106406507A (zh) 图像处理方法以及电子设备
JP4870721B2 (ja) 画像特徴抽出装置、画像特徴抽出方法、プログラム、及び記録媒体
CN114549809A (zh) 手势识别方法以及相关设备
JP4986934B2 (ja) 図形領域抽出装置、図形領域抽出方法、プログラム、及び記録媒体
Dubuc et al. Complexity, confusion, and perceptual grouping. Part II: Mapping complexity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees