JP2004133721A - System and device for creating haiku (seventeen-syllabled poem) - Google Patents
System and device for creating haiku (seventeen-syllabled poem) Download PDFInfo
- Publication number
- JP2004133721A JP2004133721A JP2002298191A JP2002298191A JP2004133721A JP 2004133721 A JP2004133721 A JP 2004133721A JP 2002298191 A JP2002298191 A JP 2002298191A JP 2002298191 A JP2002298191 A JP 2002298191A JP 2004133721 A JP2004133721 A JP 2004133721A
- Authority
- JP
- Japan
- Prior art keywords
- haiku
- information
- image
- shooting
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【産業上の利用分野】
この発明は俳句生成システムおよび俳句生成装置に関し、特にたとえば、通信機能を備えるカメラと俳句生成装置とを通信網を介して接続した、俳句生成システムおよびその俳句生成装置に関する。
【0002】
【従来の技術】
この種の従来技術の一例が特許文献1に開示される。この従来技術の文生成装置では、入力される自然語文が、選択された文リズムパターンに合致するか否かを判別し、合致しない場合には当該文リズムパターンに合致するように、自然語文の一部を置き換えて出力するものである。
【0003】
【特許文献1】
特開平7−160709号(第10頁および第11頁,第14図)
【0004】
【発明が解決しようとする課題】
しかし、この従来技術では、入力されるのは自然語文すなわちテキストであり、テキストデータ以外のデータ(マルチメディアデータ)から文を生成することができなかった。一方、株式市場の株価変動をテキストで表現したり、天気図から気象概況文を生成したりするように、マルチメディア情報からテキストを生成する研究が進められているが、他の方法で表現された内容をテキストに変換するに過ぎず、画像 (映像)のようなマルチメディア情報から異なる新しい内容のテキストを生成するようなシステムや装置は存在しなかった。
【0005】
それゆえに、この発明の主たる目的は、画像に基づいて俳句を生成できる、新規な俳句生成システムおよび俳句生成装置を提供することである。
【0006】
【課題を解決するための手段】
第1の発明は、通信機能を備えるカメラと俳句生成装置とを通信網を介して接続した俳句生成システムであって、カメラは、所望の画像を撮影する撮影手段、少なくとも画像の撮影場所を特定する位置情報を含む撮影情報を取得する撮影情報取得手段、および画像および撮影情報を通信網を介して俳句生成装置に送信する送信手段を備え、俳句生成装置は、送信手段によって送信された画像および撮影情報を受信する受信手段、受信手段によって受信された画像を解析する解析手段、解析手段の解析結果から画像の特徴を抽出する抽出手段、抽出手段によって抽出された画像の特徴および受信手段によって受信された撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および取出手段によって取り出された俳句素材を用いて俳句を生成する生成手段を備える、俳句生成システムである。
【0007】
第2の発明は、カメラで撮影した画像に基づいて俳句を生成する俳句生成装置であって、画像および撮影情報を入力する入力手段、入力手段によって入力された画像を解析する解析手段、解析手段の解析結果から画像の特徴を抽出する抽出手段、抽出手段によって抽出された画像の特徴および撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および取出手段によって取り出された俳句素材を用いて俳句を生成する生成手段を備える、俳句生成装置である。
【0008】
【作用】
第1の発明の俳句生成システムでは、通信機能を備えるカメラと俳句生成装置とが通信網を介して接続される。カメラは、撮影手段によって所望の画像を撮影することができる。このとき、少なくとも撮影場所を特定するための位置情報を含む撮影情報が取得される。このような画像および撮影情報は、俳句生成装置に送信される。俳句生成装置は、画像および撮影情報を受信すると、当該画像を解析して、当該画像の特徴を抽出する。取出手段は、抽出された画像の特徴と撮影情報とに基づいて俳句素材データベースから俳句素材を取り出す。そして、生成手段が、取り出した俳句素材を用いて俳句を生成する。
【0009】
たとえば、カメラは、画像の撮影時における撮影方向情報を取得し、俳句生成装置は、撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する。また、抽出手段によって抽出された画像の特徴から撮影対象を特定する。そして、推定手段によって推定される撮影対象と特定手段によって特定される撮影対象とを統合する。つまり、撮影対象を異なる側面から検証して、撮影対象の整合を図っているのである。
【0010】
また、俳句生成装置には、輝度情報、色情報、構図情報および対象物情報を含む付加情報をそれぞれ付加した複数の静止画像を記録する画像データベースが設けられており、解析手段は、画像の輝度情報および色情報を解析し、抽出手段は、解析手段の解析結果から得られる輝度情報および色情報と、画像データベースに記録される静止画像の付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出する。したがって、特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて画像の撮影対象を特定することができる。
【0011】
さらに、カメラは時計回路を備えるので、画像の撮影日時の情報(日時情報)を取得することができる。この日時情報は撮影情報に含まれる。俳句生成装置では、第1決定手段が、少なくとも日時情報から特定される季節に対応する季語を決定する。また、第2決定手段が、画像の特徴(輝度情報および色情報)および撮影情報(撮影場所など)の少なくとも一方に基づいて俳句に使用する語句を決定する。選択手段は、第1決定手段によって決定される季語や第2決定手段で決定される語句の少なくとも一方を含む句すなわち俳句素材を俳句素材データベースから選択する。つまり、画像に基づく俳句素材を選択できるのである。
【0012】
たとえば、俳句生成装置は、少なくともユーザの好みを示す情報を含むユーザ情報を記録するユーザ情報データベースを備えるので、第1決定手段は、少なくとも日時情報に基づいて決定した季語をユーザ情報に従って絞り込むことができる。つまり、ユーザが好む季語を選別できるのである。
【0013】
また、組み合わせ手段は、取出手段によって取り出された俳句素材を俳句構成の規則を満たして組み合わせて、俳句を生成する。つまり、5・7・5のパターンに従うとともに、いずれか1つの句に季語を含むように、俳句を生成する。
【0014】
さらに、生成手段によって生成された俳句が既存の俳句と一致する場合には、当該生成された俳句を削除するので、新しい俳句のみを生成することができるのである。
【0015】
第2の発明の俳句生成装置は、通信機能を備えるカメラと通信網を介して接続するのではなく、一旦カメラで撮影した画像や撮影情報をオンライン又はオフラインで入力するようにしたものであり、上述した俳句生成装置と同じ構成とすることができる。
【0016】
ただし、第2の発明の俳句生成装置では、撮影情報をユーザが入力するようにすれば、カメラに撮影情報取得手段を設ける必要がない。このような場合には、上述したような俳句生成システムに比べて全体的に安価な構成にすることができる。
【0017】
【発明の効果】
この発明によれば、画像の特徴や撮影情報に基づいて取得される俳句素材を取り出して俳句を生成するので、画像に基づいて俳句を生成することができる。つまり、画像のようなマルチメディア情報から異なる内容を表現するテキストを生成することができる。
【0018】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0019】
【実施例】
図1を参照して、この実施例の俳句生成システム(以下、単に「システム」という。)はカメラ12を含み、このカメラ12には通信装置14が接続される。また、カメラ12は、通信装置14およびインターネット或いは電話網(携帯電話網を含む。)などの通信網(ネットワーク)16を介して通信装置18に接続される。この通信装置18には、俳句生成装置30に設けられるコンピュータ32が接続される。つまり、通信機能を備えるカメラ12と俳句生成装置30とがネットワーク16を介して通信可能に接続される。
【0020】
なお、カメラ12およびコンピュータ32は、それぞれ、通信機能を内部に備えるようにしてもよい。
【0021】
俳句生成装置30は、パーソナルコンピュータ或いはワークステーションのようなコンピュータ32を含み、このコンピュータ32には様々なデータベース(DB)が接続される。具体的には、ユーザ情報DB34,画像DB36,知識DB38,俳句DB40および地図DB42がコンピュータ32に接続される。
【0022】
なお、これらのDB34〜42は、コンピュータ32に直接接続されている必要はなく、上述したようなネットワーク16を介して接続されるようにしてもよい。
【0023】
ユーザ情報DB34には、図2(A)に示すように、俳句生成装置30を用いて俳句を生成する利用者(ユーザ)についての情報(ユーザ情報;プロファイル情報およびプリファレンス情報)がユーザ毎に記録される。たとえば、プロファイル情報としては、ユーザID(識別情報)、名前、性別および年齢等の情報が含まれる。また、プリファレンス情報としては、ユーザが好む俳句のタイプ、季語および切字等の情報が含まれる。
【0024】
このようなユーザ情報は、ユーザ登録時に入力される情報であり、図示は省略するが、コンピュータ32に接続されるキーボードやコンピュータマウスのような入力装置を用いて入力したり、ネットワーク16を介して接続される他の端末(カメラ12を含む。)を用いて入力したりすることができる。
【0025】
また、画像DB36には、複数の画像データが記録され、各画像データはカテゴリ分類されている。具体的には、画像データの明るさ(輝度)、色相(彩度)および構図(自然風景,人物+自然風景(背景),人物,人工物)等に基づいてカテゴリが分類されるが、この実施例では、各画像データに輝度情報、色情報、構図情報および対象物情報のラベル(付加情報)が付加される。つまり、図2(B)に示すように、画像DB36には、ラベルが付加された画像データのファイル(画像ファイル)が複数記録される。
【0026】
たとえば、画像データは、輝度値や色情報を特徴空間へ写像するなどして得られる画素情報から輝度分布および彩度分布のような画像の特徴を抽出することができる。このような画像の特徴を抽出する方法としては、たとえば、情報処理学会「人文科学とコンピュータ」研究会,’94 Vol.24,pp.9−16 の「絵画における感性情報の抽出−背景色と主要色の抽出−」や情報処理学会論文誌 ’99 Vol.40,No.03,pp.886−898の「感性語による画像検索とその精度評価」に開示される方法を適用することができる。
【0027】
また、構図情報や対象物情報は、画像DB36の作成者や開発者等が付加する情報である。つまり、作成者等は、構図すなわち自然風景,人物+自然風景,人物,人工物の別を記述するとともに、構図に含まれる自然風景や人工物のような対象物の別を記述する。この実施例では、対象物としては、たとえば、“山”,“川”,“海”、“街”および“寺社”などが該当し、比較的大まかに分類される。
【0028】
知識DB38には、歴史情報および観光情報が登録される。この歴史情報および観光情報は、地名、風景および寺社等の代表的な事物の名称であり、季語に関連してそれらを特定することができる。つまり、図3(A)に示すように、代表的な事物の名称と後述する俳句DB40に記録される季語(季語データ)とが対応して知識DB38に記述される。
【0029】
また、知識DB38には、自立語および感性語(印象語)に相当する複数の語句のデータが記録される。ここで、自立語とは、名詞、動詞、形容詞等の中身(意味)のある語をいい、接続詞、助詞や助動詞等の語を除く。たとえば、自立語としては、“○○寺院”,“△△草原”,“雷”,“空”,“聞”,“鳴”,“明るい”,“暗い”などの語が該当する。この自立語には、上述したような事物の名称も含まれる。また、感性語とは、感覚によってよび起され、それに支配される人間の体験内容を表す語をいい、たとえば、形容詞や副詞に相当する語がこれに該当する。たとえば、感性語(印象語)としては、“広い”,“狭い”,“大きい”,“大きな”,“小さい”,“小さな”,“きれい”,“きれいな”,“醜い”などの語が該当する。
【0030】
この自立語および感性語のそれぞれには、図3(A)に示すように、上述したような画像の特徴(輝度情報、色情報)および後述する撮影環境(撮影対象、撮影場所、撮影対象、撮影時の季節および天候)のラベルが付加されており、画像の特徴および撮影環境に基づいて特定することができる。
【0031】
つまり、知識DB38は、俳句に使用される語句(季語を含む。)を取得するための辞書DBと言うことができる。
【0032】
俳句DB40には、図3(B)に示すように、既存の俳句についてのテキストデータが複数記録されるとともに、各テキストデータは5・7・5のパターンに従って区分され、上句(最初の5文字)、中句(次の7文字)および下句(最後の5文字)の別を示す情報が付加される。このように、パターンに従って区分するのは、俳句を生成するための素材(俳句素材)として使用するためである。また、このような俳句素材は、俳句DB40の作成者や設計者によって追加・変更等される。
【0033】
また、この俳句DB40には、典型的な季語に相当する複数のテキストデータ(季語データ)が記録される。具体的には、図3(B)に示すように、季節(春,夏,秋,冬)毎に区分けされて、季節毎の季語データが複数記述される。つまり、季節(月日)に基づいて季語を選択することができる。ただし、季節を三春(初春・仲春・晩春)、三夏(初夏・仲夏・晩夏)、三秋(初秋・仲秋・晩秋)、三冬(初冬・仲冬・晩冬)のように詳細に分けて、それぞれに応じた季語データを記述するようにしてもよい。
【0034】
地図DB42には、特定の領域(この実施例では、日本全国)についての地図データが記録されており、緯度および経度、または、住所に基づいて場所(位置)を特定することができる。また、特定された位置(この実施例では、撮影場所)と、撮影時のカメラ12の方向(後述する方位情報および傾き情報)とから撮影対象(地図上における対象物)を推定することができる。
【0035】
図4はカメラ12の電気的な構成を示すブロック図であり、この図4を参照して、カメラ12はレンズ50を含み、このレンズ50から入射された被写体の光像がCCDイメージャ52によって電気信号に変換される。CCDイメージャ52は、たとえば原色ベイヤ配列の色フィルタを有し、CPU70の指示の下、プログレッシンブスキャン(画素順次走査)に従って、各画素の電気信号(カメラ信号)を出力する。
【0036】
CCDイメージャ52から出力されたカメラ信号は、CDS/AGC回路54に与えられる。CDS/AGC回路54は、CCDイメージャ52からのカメラ信号に、周知のノイズ除去およびレベル調整を施す。このCDS/AGC回路54によって処理されたカメラ信号は、A/D変換器56でディジタルデータ(カメラデータ)に変換される。A/D変換器56から出力されるカメラデータは、信号処理回路58に与えられる。
【0037】
信号処理回路58は、CPU70の指令信号に従って、A/D変換器56から与えられたカメラデータに色分離、白バランス調整、YUV変換などの処理を施し、被写体の光像に対応するYUVデータを生成する。生成されたYUVデータは、メモリ制御回路60によってSDRAMのようなRAM62に書き込まれる。一方、ビデオエンコーダ64は、CPU70からの処理指示に応答してYUVデータの読み出しをメモリ制御回路60に要求し、メモリ制御回路60によって読み出されたYUVデータをNTSC方式のコンポジット画像信号に変換する。変換されたコンポジット画像信号はモニタ66に与えられ、この結果、被写体のリアルタイムの動画像(スルー画像)がモニタ66に表示される。
【0038】
撮影モードでは、ユーザが所望のタイミングで操作パネル86に設けられるシャッタボタン(図示せず)を操作(オン)すると、撮影指示がシステムコントローラ(以下、単に「シスコン」という。)78からCPU70に与えられる。すると、CPU70は、撮影処理を実行する。
【0039】
CPU70は、最適シャッタスピードでの被写体の撮影ならびに光電変換された全ての画素信号の読み出しを、図示しないタイミングジェネレータ(TG)に命令する。これによって、シャッタボタンがオンされた時点の静止画像に対応する高解像度のカメラ信号がCCDイメージャ52から出力される。出力されたカメラ信号は上述と同様の処理を施され、高解像度のYUVデータがRAM62に一旦格納される。
【0040】
続いて、CPU70は、JPEGコーデックのような圧縮伸長回路72に対して圧縮指示を与える。圧縮伸長回路72は、圧縮指示に応答してメモリ制御回路60にYUVデータの読み出しを要求する。メモリ制御回路60は、RAM62に格納されたYUVデータつまり1画面分の静止画像データを読み出し、圧縮伸長回路72に与える。圧縮伸長回路72は、静止画像データをJPEGフォーマットに従って圧縮し、CPU70の指示の下、圧縮した画像データ(圧縮画像データ)をフラッシュメモリ76に書き込む。
【0041】
なお、この実施例では、フラッシュメモリ76に圧縮画像データを記録するようにしてあるが、メモリカードや光(磁気)ディスクのような着脱可能な記録媒体に記録するようにしてもよい。
【0042】
CPU70はまた、シスコン78から撮影指示が与えられると、シスコン78に撮影情報の取得を指示する。ここで、撮影情報とは、撮影時のカメラ12の位置情報(この実施例では、緯度および経度)、カメラ12(レンズ50)の左右(旋回)方向の情報(方位情報)、カメラ12の上下方向(傾き)の情報(傾き情報)、撮影時の気温の情報(温度情報)、撮影時の湿度の情報(湿度情報)および撮影の日時を示す日時情報などをいう。
【0043】
つまり、撮影モードでは、CPU70は、撮影指示に応答して上述したような撮影処理を実行するとともに、シスコン78に撮影情報の取得を指示する。これに応じて、シスコン78は、GPS80(アンテナを含む。)、方位センサ82、傾きセンサ84、温度センサ88、湿度センサ90および時計回路92の出力を検出し、上述したような撮影情報についてのデータ(撮影情報データ)を取得し、CPU70に与える。
【0044】
なお、この実施例では、CPU70に与えられる撮影情報データはテキストデータである。
【0045】
CPU70は、シスコン78から与えられた撮影情報データを、フラッシュメモリ76に記録した圧縮画像データに関連づけてEEPROM68に記録する。つまり、圧縮画像データとそれに関連する撮影情報データとには、同じファイル名を付けて、異なる拡張子で管理することができる。たとえば、圧縮画像データに“FILE01.jpg”のようなファイル名を付け、それに関連する撮影情報データに“FILE01.txt”のようなファイル名を付けて、管理することができる。
【0046】
さらに、撮影情報としては、撮影場所における撮影時点の天候の情報(気象情報)を加えることができる。たとえば、気象情報はユーザが操作パネル86を操作して入力(追加)できる。
【0047】
また、再生モードでは、モニタ66に圧縮画像データのサムネイル画像或いはファイル名が表示され、ユーザは操作パネル86に設けられるカーソルキー(図示せず)等を操作して、所望の画像を選択することができる。所望の画像(サムネイル画像或いはファイル名)を選択し、操作パネル86に設けられる再生ボタン(図示せず)を操作すると、当該所望の画像についての再生指示がシスコン78からCPUに70に与えられ、これに応答して、CPU70は選択された画像に対応する圧縮画像データをフラッシュメモリ76から読み出す。
【0048】
続いて、CPU70は、伸長指示を圧縮伸長回路72に与えるとともに、読み出した圧縮画像データを圧縮伸長回路72に与える。圧縮伸長回路72は、圧縮画像データに対してJPEGフォーマットに従った伸長処理を施し、メモリ制御回路60に書き込み指示を与える。すると、メモリ制御回路60によって、伸長処理が施された画像データがRAM62に格納される。
【0049】
そして、CPU70は、ビデオエンコーダ64に処理指示を与える。これに応答して、ビデオエンコーダ64は、YUVデータの読み出しをメモリ制御回路60に要求し、メモリ制御回路60によって読み出されたYUVデータをNTSC方式のコンポジット画像信号に変換する。変換されたコンポジット画像信号はモニタ66に与えられ、選択された所望の撮影画像(静止画像)がモニタ66に表示される。
【0050】
さらに、転送モードでは、再生時と同様にモニタ66に圧縮画像データのサムネイル画像或いはファイル名が表示され、所望の画像を選択することができる。また、ユーザは、操作パネル86を操作して、個人情報を入力することができる。この実施例では、たとえば、上述したようなユーザ情報に含まれるユーザIDが入力される。
【0051】
続いて、操作パネル86に設けられる転送ボタン(図示せず)が操作されると、シスコン78は転送指示をCPU70に入力する。これに応答して、CPU70は、先に入力されたユーザID、選択された画像に対応する圧縮画像データおよび当該圧縮画像データに関連する撮影情報データをひとまとまりの転送データとして、インターフェイス74を介して転送する。転送データは、図1に示したように、通信装置14、ネットワーク16および通信装置18を介して俳句生成装置30(コンピュータ32)に転送される。
【0052】
なお、撮影モード、再生モードおよび転送モードの各モードは、操作パネル86に設けられるモード選択ボタン(図示せず)を操作することにより、それぞれ設定される。
【0053】
具体的には、カメラ12のCPU70は、図5に示すフロー図に従って処理する。図5に示すように、カメラ12の主電源がオンされると、CPU70は処理を開始し、ステップS1で撮影モードかどうかを判断する。ステップS1で“NO”であれば、つまり撮影モードでなければ、そのままステップS11に進む。一方、ステップS1で“YES”であれば、つまり撮影モードであれば、ステップS3でシャッタボタンがオンされたかどうかを判断する。
【0054】
ステップS3で“NO”であれば、つまりシャッタボタンがオンされなければ、そのまま同じステップS3に戻る。一方、ステップS3で“YES”であれば、つまりシャッタボタンがオンされれば、これに応じて、ステップS5で上述したような撮影処理を実行する。
【0055】
次いで、ステップS7で、撮影情報データを取得する。つまり、シスコン78に撮影情報の取得を指示する。すると、上述したように、シスコン78は、GPS80、方位センサ82、傾きセンサ84、温度センサ88、湿度センサ90および時計回路92の出力を検出し、その検出結果から位置情報(経度、緯度)、カメラ12(レンズ50)の方位情報、カメラ12(レンズ50)の傾き情報、気温、湿度および日時を取得する。そして、ステップS9では、取得した撮影情報データを、撮影画像の圧縮画像データに関連づけてEEPROM68に記録して処理を終了する。
【0056】
ステップS11では、転送モードかどうかを判断する。ステップS11で“NO”であれば、つまり転送モードでなければ、そのままステップS21に進む。一方、ステップS11で“YES”であれば、つまり転送モードであれば、ステップS13で画像が選択されたかどうかを判断する。ステップS13で“NO”であれば、つまり転送する画像が選択されていなければ、そのまま同じステップS13に戻る。
【0057】
一方、ステップS13で“YES”であれば、つまり転送する画像が選択されれば、ステップS15でユーザID(ユーザ情報)が入力されたかどうかを判断する。ステップS15で“NO”であれば、つまりユーザIDが入力されていなければ、そのまま同じステップS15に戻る。一方、ステップS15で“YES”であれば、つまりユーザIDが入力されれば、ステップS17で、転送ボタンがオンされたかどうかを判断する。
【0058】
ステップS17で“NO”であれば、つまり転送ボタンがオンされなければ、そのままステップS17に戻って、転送ボタンがオンされるまで待機する。一方、ステップS17で“YES”であれば、つまり転送ボタンがオンされれば、ステップS19で、選択された画像に対応する圧縮画像データをフラッシュメモリ76から読み出すとともに、当該圧縮画像データに関連づけて記録される撮影情報データをEEPROM68から読み出して、先に入力されたユーザIDと一緒にネットワーク16を介して俳句生成装置30に転送して処理を終了する。つまり、転送データがコンピュータ32に転送される。
【0059】
また、ステップS21では、再生モードかどうかを判断する。ステップS21で“NO”であれば、つまり再生モードでなければ、そのままステップS1に戻る。一方、ステップS21で“YES”であれば、つまり再生モードであれば、ステップS23で画像が選択されたかどうかを判断する。ステップS23で“NO”であれば、つまり再生する画像が選択されていなければ、そのまま同じステップS23に戻る。一方、ステップS23で“YES”であれば、つまり再生する画像が選択されれば、ステップS25で、選択された画像について、上述したような再生処理を実行して処理を終了する。
【0060】
一方、俳句生成装置30に含まれるコンピュータ32は、図6および図7に示すフロー図に従って俳句生成処理を実行する。図6に示すように、コンピュータ32は、俳句生成処理を開始すると、ステップS31でデータすなわち転送データ(ユーザID、圧縮画像データおよび撮影情報データ)を受信したかどうかを判断する。ステップS31で“NO”であれば、つまり転送データを受信していなければ、そのまま同じステップS31に戻る。
【0061】
一方、ステップS31で“YES”であれば、つまり転送データを受信すれば、ステップS33でユーザ情報を読み出す。具体的には、転送データに含まれるユーザIDを参照して、ユーザ情報DB34に記録されるユーザ情報を読み出す。続くステップS35では、受信した画像データを解析する。つまり、受信した圧縮画像データをJPEGフォーマットに従って伸長して、画像(撮影画像)の輝度分布および彩度分布を解析する。
【0062】
そして、ステップS37で、画像の特徴を抽出する。つまり、撮影画像の解析結果(輝度分布、彩度分布)から、画像DB36に記録される画像データとの類似度を算出して、算出結果から一致または最も近似する画像データを特定し、特定した画像データのラベルに記述される構図情報および対象物情報を取得する。
【0063】
続いて、ステップS39では、撮影情報データから撮影環境を作成する。ここで、撮影環境とは、撮影場所、撮影対象、撮影時の季節および天候(気温、湿度を含む。)をいう。具体的には、まず、撮影情報データに含まれる位置情報(緯度および経度)を地図DB42に入力し、カメラ12の位置(撮影場所)を特定する。次いで、撮影情報データに含まれる方位情報および傾き情報が地図DB42に入力されると、先に特定した撮影場所、方位情報および傾き情報に基づいて地図上の対象物(撮影対象)が推定される。次に、撮影情報データに含まれる日時情報および特定した撮影場所から季節を推定する。さらに、撮影情報データに含まれる温度情報や湿度情報から季節を確定する。このとき、確定した季節に応じた季語が俳句DB40から取得される。
【0064】
なお、上述したように、撮影情報に気象情報が含まれる場合には、さらに撮影時の天候を撮影環境情報に追加することができる。或いは、インターネット上で提供される気象情報を、撮影場所および撮影日時に基づいて取得することも可能である。
【0065】
次のステップS41では、画像データと撮影情報データとをマッチングして撮影環境を統合する。具体的には、ステップS37において取得した構図情報および対象物情報で特定される撮影対象と、撮影情報データに含まれる撮影場所、方位情報および傾き情報から特定される撮影対象とを統合する。たとえば、画像データに基づく構図情報および対象物情報から撮影対象が“山”と特定された場合に、撮影情報データに含まれる撮影場所、方位情報および傾き情報から推定(特定)される撮影対象が“寺院”である場合には、画像データから特定される撮影対象と撮影情報データから特定される撮影対象とが一致しないため、撮影対象は撮影環境から排除される。また、撮影情報データから推定される撮影対象が“湖畔”である場合には、画像データから特定される撮影対象と撮影情報データから特定される撮影対象とが一致しないが、互いの撮影対象を補完して、撮影環境の撮影対象を“山”および“湖畔”のように決定することもできる。つまり、撮影対象を画像データと撮影情報データとの異なる側面から検証した場合に、不一致となる情報を削除したり、互いに補完したりすることにより、撮影環境の整合(最適化)を図っているのである。
【0066】
なお、このような最適化においては、一致しない情報を削除したり、互いに補完したりするようにしてあるが、これは、予め開発者や設計者によって決められるルールに従って実行される。
【0067】
続くステップS43では、ユーザ情報、画像の特徴および撮影環境に基づいて自立語および感性語を選択する。つまり、画像の特徴および撮影環境に基づいて知識DB38から自立語および感性語を選択し、選択された自立語および感性語の中からユーザ情報に基づいてユーザの性別、年齢、好みの俳句タイプ等に合う自立語および感性語が選別される。
【0068】
なお、このとき、撮影環境から取得された季語に基づいて、観光情報および歴史情報に含まれる事物の名称(自立語)も取得される。
【0069】
そして、ステップS45では、俳句素材を取得する。つまり、ステップS39において取得された季語やステップS43において選択(選別)された自立語および感性語を含む或いは自立語や感性語に近似(類似)する語句を含む俳句素材すなわち上句(5文字)、中句(7文字)および下句(5文字)のそれぞれが俳句DB40から取得される。
【0070】
たとえば、この実施例では、選択された自立語や感性語に基づいて俳句素材(句)を取得する場合には、当該自立語や感性語と、俳句DB40に記録されるすべての句に含まれる語句との間で類似度のスコアが計算され、一定のスコア以上となる語句を含む句が取得される。ここで、類似度とは、語句の意味が類似する度合いをいう。
【0071】
続いて、ステップS47では、後で詳細に説明する手順に従って、俳句構成上の制約を満たす俳句テキストを生成する。簡単に言うと、5,7,5のパターンに従うとともに、いずれか1つの句に季語を含むように、ステップS45において取得した句を組み合わせて俳句のテキストデータ(俳句テキスト)を作成する。
【0072】
図7に示すステップS49では、生成した1番目の俳句と既存の俳句とを比較する。つまり、生成した俳句の中から1つの俳句を選択し、俳句DB40に記録される俳句と比較する。続くステップS51では、両者が同じである(一致する)かどうかを判断する。
【0073】
ステップS51で“NO”であれば、つまり両者が一致しなければ、そのままステップS55に進む。一方、ステップS51で“YES”であれば、つまり両者が一致すれば、ステップS53で、当該生成した俳句を削除してからステップS55に進む。
【0074】
ステップS55では、次の俳句があるかどうかを判断する。ステップS55で“YES”であれば、つまり次の俳句があれば、ステップS57で次の俳句と既存の俳句とを比較して、ステップS51に戻る。一方、ステップS55で“NO”であれば、つまり次の俳句がなければ、ステップS59で、スコア順に俳句を提示して、処理を終了する。つまり、生成した俳句のテキストデータをネットワーク16を介してカメラ12に送信する。
【0075】
ただし、生成した俳句をスコア順に1つずつ送信するようにしてもよく、また、スコア順に従った番号を各俳句に付して生成したすべての俳句をまとめて送信するようにしてもよい。
【0076】
なお、カメラ12に送信された俳句のテキストデータは、インターフェイス74を介してCPU70に与えられ、CPU70からEEPROM68に記録される。その後、ユーザが操作パネル86を操作して、俳句の出力指示を入力すると、シスコン78からCPU70に俳句の出力指示が与えられる。これに応じて、CPU70は、EEPROM68に記録された俳句のテキストデータを読み出し、ビデオエンコーダ64に処理指示を与える。すると、たとえば、ブルーバック画面に俳句のテキストが記述された画面がモニタ66に表示される。
【0077】
ただし、ブルーバック画面に変えて、当該俳句を生成する元になった画像をモニタ66に表示し、その画像に俳句のテキストを上書きするようにしてもよい。
【0078】
図6のステップS47で俳句テキストの生成処理が開始されると、図8に示すように、コンピュータ32は、ステップS71で、俳句DB40から取り出した俳句素材から上句となり得る句の候補を取り出す。続くステップS73では、取り出した上句の候補をスコア順に並べる。つまり、自立語や感性語との類似度のスコア順に並べる。
【0079】
続いて、ステップS75では、類似度のスコアが高い順に中句の候補を取り出す。そして、ステップS77では、上句と中句との組み合わせを生成する。たとえば、この実施例では、上句および中句は、それぞれ、類似度のスコアが高い順に組み合わせられる。つまり、1番目の上句と1番目の中句と、2番目の上句と2番目の中句と、…、のように、上句の候補と中句の候補とが組み合わせられる。このとき、上句・中句の順で組み合わせられる。
【0080】
そして、ステップS79では、上句と中句との組み合わせをスコア順に並べる。ただし、ここでは、上句および中句のそれぞれについての類似度のスコアを加算したスコア(第1スコア)と、上句と中句との組み合わせの良さ(連結性の良さ)のスコア(第2スコア)とを加算したスコア(第3スコア)が計算され、この第3スコアの高い順に上句と中句との組み合わせが並べられる。
【0081】
第2スコアは、たとえば、上句と中句との意味の連結性や文脈の連結性などの良さ或いはユーザ情報(プリファレンス情報)に記述される好みの切れ字を含むか否かで決定されるスコアであり、予め開発者や設計者によって決められるルールに従って計算される。
【0082】
次にステップS81では、類似度のスコアが高い順に下句の候補を取り出す。そして、ステップS83では、上句と中句と下句との組み合わせを生成する。たとえば、この実施例では、上句と中句とを組み合わせた場合と同様に、第3スコアの高い順に並べられた上句と中句との組み合わせに対して、類似度のスコアが高い順で下句を連結する。このとき、上句・中句に続いて下句が連結される。
【0083】
そして、ステップS85では、上句と中句と下句との組み合わせをスコア順に並べる。ここでは、上句、中句および下句のそれぞれについての類似度のスコアを加算したスコア(第4スコア)と、上句と中句との連結性の良さ等で表されるスコア(第2スコア)と、中句と下句との連結性の良さ等で表されるスコア(第5スコア)とを加算したスコア(第6スコア)が計算され、この第6スコアの高い順に上句と中句と下句との組み合わせすなわち複数の俳句テキストが並べられる。
【0084】
なお、第5スコアを計算する場合には、第2スコアと同様に、プリファレンス情報に記述される好みの切れ字を含むか否か考慮される。
【0085】
最後に、ステップS87では、生成した俳句テキストのうち、季語が2つ以上含まれる俳句テキストを削除して、俳句テキストの生成処理をリターンする。したがって、上述したような俳句構成の制約を満たす俳句テキストのみが生成される。
【0086】
このようにして、複数の俳句テキストが生成されるが、第3スコアが一定スコア以上かどうかに基づいて上句と中句との組み合わせを減らしたり、第6スコアが一定スコア以上かどうかに基づいて生成した俳句テキストを減らしたりすることも可能である。また、複数の俳句テキストを生成した後に、第6スコアが低い俳句テキストを削減して、俳句テキストの数を調整するようにしてもよい。
【0087】
この実施例によれば、画像の特徴および撮影情報に基づいて俳句に使用する季語や語句を選択し、当該季語や語句を含む句を用いて俳句を作成するので、撮影した画像に基づいて俳句を生成することができる。つまり、画像のようなマルチメディア情報から、当該情報が示す内容とは異なる内容のテキストを生成することができる。
【0088】
なお、この実施例では、転送データの入力をトリガとして、俳句生成処理を実行するようにしたが、転送データを取得後に確定(特定)した季語をユーザに提示し、ユーザに季語を選択させるようにして、その選択についての操作があったときを俳句生成処理のトリガにするようにしてもよい。
【0089】
また、この実施例では、ユーザの操作を簡略化するために、ユーザ情報DBを設けて、そこからユーザ情報を読み出すようにしたが、ユーザ情報はユーザが俳句の生成指示を入力する(転送データを送信する)度に入力することもできる。かかる場合には、その時々のユーザの好みに応じた俳句を生成することができる。
【0090】
さらに、この実施例では、ネットワーク16を介してカメラ12と俳句生成装置30(コンピュータ32)とを接続するようにしたが、USBケーブルのようなケーブルを用いて接続するようにしてもよい。この場合には、遠隔地に存在する場合だけでなく、俳句生成装置の近傍に存在する場合にも手軽に俳句を楽しむことができる。
【0091】
この発明の他の実施例の俳句生成装置30は、転送データ(ユーザID、圧縮画像データおよび撮影情報データ)を直接コンピュータ32に入力するように構成した以外は、上述の実施例と同じであるため、重複した説明は省略する。
【0092】
この他の実施例の俳句生成装置30では、カメラ12とコンピュータ32とをたとえばUSBケーブル(図示せず)で接続して、カメラ12からコンピュータ32に圧縮画像データを入力(転送)し、ユーザが撮影情報を別途入力するようにしてある。つまり、図1および図4に示したカメラ12は、少なくとも撮影機能のみを有していれば良く、汎用のディジタルカメラを用いることができる。
【0093】
ユーザが圧縮画像データをコンピュータ32に入力すると、コンピュータ32に接続されるモニタ(図示せず)に、図9に示すような撮影情報入力画面が表示される。この撮影情報入力画面では、ユーザがコンピュータ32に入力した圧縮画像データに基づく画像が表示されるとともに、撮影情報のそれぞれを入力するための欄が表示される。さらに、撮影情報の入力欄の下方には“OK”ボタンおよび“キャンセル”ボタンが表示される。
【0094】
なお、図面の都合上、撮影情報としては、位置情報(撮影場所),撮影日時,天候のみを入力できるように記載してあるが、上述の実施例で示した撮影情報をすべて入力することができる。
【0095】
また、この撮影情報入力画面では、その他の欄にユーザIDを入力することができる。
【0096】
ユーザは、撮影情報入力画面に表示される画像についての撮影情報およびユーザIDを入力装置を用いて入力することができる。この撮影情報入力画面において、撮影情報およびユーザIDが入力され、“OK”ボタンがオンされると、コンピュータ32は上述の実施例で示したような俳句生成処理を実行する。つまり、上述の実施例では、転送データの受信をトリガとして俳句生成処理が実行されたが、他の実施例では、“OK”ボタンのオンをトリガとして俳句生成処理が実行される。ただし、俳句生成(入力)を止める場合には、“キャンセル”ボタンをオンすればよい。
【0097】
この他の実施例によれば、転送データを直接入力するようにしたので、カメラに複数のセンサ等を設ける必要がなく、上述の実施例に比べて安価なシステムを提供することができる。
【0098】
なお、プロファイル情報などのユーザ情報についても、撮影情報と同様の入力画面を設けて入力することが可能である。
【図面の簡単な説明】
【図1】この発明の俳句生成システムの構成の一例を示す図解図である。
【図2】図1実施例に示すユーザ情報DBおよび画像DBの内容を示す図解図である。
【図3】図1実施例に示す知識DBおよび俳句DBの内容を示す図解図である。
【図4】図1実施例に示すカメラの具体的な構成を示すブロック図である。
【図5】図1実施例に示すカメラのCPUの全体処理を示すフロー図である。
【図6】図1実施例に示す俳句生成装置のコンピュータの俳句生成処理の一部を示すフロー図である。
【図7】図1実施例に示す俳句生成装置のコンピュータの俳句生成処理の他の一部を示すフロー図である。
【図8】図1実施例に示す俳句生成装置のコンピュータの俳句テキストの生成処理を示すフロー図である。
【図9】この発明の他の実施例で画面表示される撮影情報入力画面の一例を示す図解図である。
【符号の説明】
10 …俳句生成システム
12 …カメラ
14,18 …通信装置
16 …ネットワーク
30 …俳句生成装置
32 …コンピュータ
34,36,38,40,42 …DB
52 …CCDイメージャ
58 …信号処理回路
64 …ビデオエンコーダ
66 …モニタ
70 …CPU
74 …インターフェイス
78 …システムコントローラ
80 …GPS
82 …方位センサ
84 …傾きセンサ
86 …操作パネル
88 …温度センサ
90 …湿度センサ
92 …時計回路[0001]
[Industrial applications]
The present invention relates to a haiku generation system and a haiku generation device, and more particularly to, for example, a haiku generation system and a haiku generation device in which a camera having a communication function and a haiku generation device are connected via a communication network.
[0002]
[Prior art]
An example of this type of prior art is disclosed in
[0003]
[Patent Document 1]
JP-A-7-160709 (
[0004]
[Problems to be solved by the invention]
However, in this conventional technique, the input is a natural language sentence, that is, a text, and a sentence cannot be generated from data (multimedia data) other than text data. On the other hand, studies are being conducted to generate text from multimedia information, such as expressing stock price fluctuations in the stock market in text or generating weather summary sentences from weather maps, but other methods are used to express text. There was no system or device that simply converted the content into text and generated text with different new content from multimedia information such as images (video).
[0005]
Therefore, a main object of the present invention is to provide a new haiku generation system and a new haiku generation device capable of generating a haiku based on an image.
[0006]
[Means for Solving the Problems]
A first invention is a haiku generating system in which a camera having a communication function and a haiku generating device are connected via a communication network, wherein the camera specifies a photographing means for photographing a desired image, at least a photographing place of the image. Photographing information acquiring means for acquiring photographing information including position information to be transmitted, and transmitting means for transmitting the image and the photographing information to the haiku generating device via a communication network, wherein the haiku generating device transmits the image and the image transmitted by the transmitting means. Receiving means for receiving the photographing information, analyzing means for analyzing the image received by the receiving means, extracting means for extracting image features from the analysis result of the analyzing means, image features extracted by the extracting means and receiving by the receiving means Extracting means for extracting haiku material from the haiku material database based on the obtained photographing information, and haiku material extracted by the extracting means Using comprises generating means for generating a haiku with a haiku generation system.
[0007]
A second invention is a haiku generation device that generates a haiku based on an image captured by a camera, an input unit that inputs an image and photographing information, an analysis unit that analyzes the image input by the input unit, and an analysis unit. Extracting means for extracting the features of the image from the analysis result of the image, extracting means for extracting the haiku material from the haiku material database based on the image characteristics and the photographing information extracted by the extracting means, and haiku material extracted by the extracting means. A haiku generating apparatus comprising a generating means for generating a haiku.
[0008]
[Action]
In the haiku generation system of the first invention, a camera having a communication function and a haiku generation device are connected via a communication network. The camera can take a desired image by the photographing means. At this time, shooting information including at least position information for specifying the shooting location is obtained. Such images and photographing information are transmitted to the haiku generator. Upon receiving the image and the photographing information, the haiku generation device analyzes the image and extracts features of the image. The extracting means extracts a haiku material from the haiku material database based on the extracted image features and shooting information. Then, the generating means generates a haiku using the taken haiku material.
[0009]
For example, the camera acquires shooting direction information at the time of shooting an image, and the haiku generation device estimates a shooting target based on the position information and shooting direction information included in the shooting information. Further, the photographing target is specified from the features of the image extracted by the extracting means. Then, the imaging target estimated by the estimation unit and the imaging target specified by the identification unit are integrated. That is, the photographing target is verified from different aspects, and the matching of the photographing target is achieved.
[0010]
Further, the haiku generating apparatus is provided with an image database for recording a plurality of still images to which additional information including luminance information, color information, composition information, and object information are added, respectively. The information and color information are analyzed, and the extraction unit determines the similarity between the luminance information and color information obtained from the analysis result of the analysis unit and the luminance information and color information included in the additional information of the still image recorded in the image database. Then, the composition information and the object information included in the additional information having the maximum similarity are extracted. Therefore, the specifying unit can specify the shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
[0011]
Furthermore, since the camera is provided with a clock circuit, it is possible to acquire information on the shooting date and time of the image (date and time information). This date and time information is included in the shooting information. In the haiku generating device, the first determining means determines a seasonal word corresponding to at least the season specified from the date and time information. In addition, the second determining means determines a phrase to be used in a haiku based on at least one of image characteristics (luminance information and color information) and photographing information (such as photographing place). The selecting means selects, from the haiku material database, a phrase including at least one of a seasonal word determined by the first determining means and a phrase determined by the second determining means, that is, a haiku material. In other words, you can select a haiku material based on the image.
[0012]
For example, the haiku generation device includes a user information database that records user information including at least information indicating the user's preference, so that the first determination unit can narrow down seasonal words determined based on at least date and time information according to the user information. it can. That is, the seasonal word that the user likes can be selected.
[0013]
The combination means combines the haiku materials extracted by the extraction means so as to satisfy the rules of the haiku composition to generate a haiku. In other words, the haiku is generated so as to follow the pattern of 5.7.5, and include the seasonal word in any one of the phrases.
[0014]
Furthermore, if the haiku generated by the generating means matches an existing haiku, the generated haiku is deleted, so that only a new haiku can be generated.
[0015]
A haiku generation device according to a second aspect of the present invention is configured such that an image or photographing information once photographed by a camera is input online or offline without connecting to a camera having a communication function via a communication network. The same configuration as the above-described haiku generation device can be used.
[0016]
However, in the haiku generation device of the second invention, if the user inputs the photographing information, it is not necessary to provide the camera with photographing information acquisition means. In such a case, it is possible to make the overall configuration cheaper than the haiku generation system described above.
[0017]
【The invention's effect】
According to the present invention, a haiku is generated by extracting a haiku material acquired based on the characteristics of the image and the photographing information, so that the haiku can be generated based on the image. That is, text expressing different contents can be generated from multimedia information such as an image.
[0018]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0019]
【Example】
Referring to FIG. 1, the haiku generation system (hereinafter, simply referred to as “system”) of this embodiment includes a
[0020]
Note that each of the
[0021]
The
[0022]
Note that these
[0023]
As shown in FIG. 2A, information (user information; profile information and preference information) about a user (user) who generates a haiku using the
[0024]
Such user information is information input at the time of user registration, and although not shown, is input using an input device such as a keyboard or a computer mouse connected to the
[0025]
In the
[0026]
For example, image data can extract image features such as luminance distribution and saturation distribution from pixel information obtained by mapping luminance values and color information into a feature space. As a method of extracting such a feature of an image, for example, an information processing society “humanities and computers” study group, '94 Vol. 24, pp. 9-16, "Extraction of Kansei Information in Painting-Extraction of Background Color and Main Color-" and IPSJ Transactions '99 Vol. 40, no. 03, pp. The method disclosed in “Image Search Using Kansei Words and Evaluation of Its Accuracy” at 886-898 can be applied.
[0027]
The composition information and the object information are information added by a creator or a developer of the
[0028]
History information and sightseeing information are registered in the
[0029]
Further, in the
[0030]
As shown in FIG. 3 (A), each of the self-sustained word and the kansei word has the above-described image features (luminance information and color information) and a shooting environment (a shooting target, a shooting location, a shooting target, The label of “season and weather at the time of shooting” is added, and can be specified based on the characteristics of the image and the shooting environment.
[0031]
That is, the
[0032]
As shown in FIG. 3B, the
[0033]
The
[0034]
In the
[0035]
FIG. 4 is a block diagram showing an electrical configuration of the
[0036]
The camera signal output from the
[0037]
The
[0038]
In the photographing mode, when the user operates (turns on) a shutter button (not shown) provided on the
[0039]
The
[0040]
Subsequently, the
[0041]
In this embodiment, the compressed image data is recorded in the
[0042]
Further, when an imaging instruction is given from the
[0043]
That is, in the shooting mode, the
[0044]
In this embodiment, the photographing information data provided to the
[0045]
The
[0046]
Furthermore, information on the weather at the time of shooting at the shooting location (weather information) can be added as the shooting information. For example, the user can input (add) weather information by operating the
[0047]
In the playback mode, a thumbnail image or a file name of the compressed image data is displayed on the
[0048]
Subsequently, the
[0049]
Then, the
[0050]
Further, in the transfer mode, the thumbnail image or the file name of the compressed image data is displayed on the
[0051]
Subsequently, when a transfer button (not shown) provided on the
[0052]
Each of the shooting mode, the reproduction mode, and the transfer mode is set by operating a mode selection button (not shown) provided on the
[0053]
Specifically, the
[0054]
If “NO” in the step S3, that is, if the shutter button is not turned on, the process returns to the same step S3 as it is. On the other hand, if “YES” in the step S3, that is, if the shutter button is turned on, the photographing process as described above is executed in a step S5 in response to this.
[0055]
Next, in step S7, photographing information data is obtained. That is, it instructs the
[0056]
In step S11, it is determined whether the mode is the transfer mode. If “NO” in the step S11, that is, if the mode is not the transfer mode, the process directly proceeds to a step S21. On the other hand, if “YES” in the step S11, that is, if it is the transfer mode, it is determined whether or not an image is selected in a step S13. If “NO” in the step S13, that is, if the image to be transferred is not selected, the process returns to the same step S13 as it is.
[0057]
On the other hand, if “YES” in the step S13, that is, if an image to be transferred is selected, it is determined whether or not a user ID (user information) is input in a step S15. If “NO” in the step S15, that is, if the user ID is not input, the process returns to the same step S15 as it is. On the other hand, if “YES” in the step S15, that is, if the user ID is input, it is determined whether or not the transfer button is turned on in a step S17.
[0058]
If “NO” in the step S17, that is, if the transfer button is not turned on, the process returns to the step S17 and waits until the transfer button is turned on. On the other hand, if “YES” in the step S17, that is, if the transfer button is turned on, in a step S19, the compressed image data corresponding to the selected image is read out from the
[0059]
In step S21, it is determined whether the mode is the reproduction mode. If “NO” in the step S21, that is, if it is not the reproduction mode, the process returns to the step S1 as it is. On the other hand, if “YES” in the step S21, that is, if it is the reproduction mode, it is determined whether or not an image is selected in a step S23. If “NO” in the step S23, that is, if the image to be reproduced is not selected, the process returns to the same step S23 as it is. On the other hand, if “YES” in the step S23, that is, if an image to be reproduced is selected, in the step S25, the above-described reproducing process is performed on the selected image, and the process ends.
[0060]
On the other hand, the
[0061]
On the other hand, if “YES” in the step S31, that is, if the transfer data is received, the user information is read in a step S33. Specifically, the user information recorded in the
[0062]
Then, in step S37, the features of the image are extracted. That is, the similarity to the image data recorded in the
[0063]
Subsequently, in step S39, a shooting environment is created from the shooting information data. Here, the shooting environment refers to a shooting location, a shooting target, a season at the time of shooting, and weather (including temperature and humidity). Specifically, first, the position information (latitude and longitude) included in the shooting information data is input to the
[0064]
As described above, when the weather information is included in the shooting information, the weather at the time of shooting can be further added to the shooting environment information. Alternatively, it is also possible to acquire weather information provided on the Internet based on a shooting location and a shooting date and time.
[0065]
In the next step S41, the image capturing environment is integrated by matching the image data with the image capturing information data. Specifically, the imaging target specified by the composition information and the object information acquired in step S37 is integrated with the imaging target specified by the imaging location, azimuth information, and tilt information included in the imaging information data. For example, when the shooting target is specified as “mountain” from the composition information and the object information based on the image data, the shooting target estimated (specified) from the shooting location, the azimuth information, and the inclination information included in the shooting information data. In the case of “temple”, the shooting target specified from the image data does not match the shooting target specified from the shooting information data, so the shooting target is excluded from the shooting environment. Further, when the shooting target estimated from the shooting information data is “lakeside”, the shooting target specified from the image data does not match the shooting target specified from the shooting information data. In addition, the shooting target of the shooting environment can be determined as “mountain” and “lakeside”. In other words, when the shooting target is verified from different aspects of the image data and the shooting information data, the mismatching information is deleted or complemented with each other to achieve matching (optimization) of the shooting environment. It is.
[0066]
In such optimization, information that does not match is deleted or complemented with each other, but this is performed according to a rule determined in advance by a developer or a designer.
[0067]
In a succeeding step S43, an independent word and a feeling word are selected based on the user information, the feature of the image, and the photographing environment. That is, an independent word and a kansei word are selected from the
[0068]
At this time, the names (independent words) of the objects included in the tourist information and the history information are also acquired based on the seasonal words acquired from the shooting environment.
[0069]
Then, in step S45, a haiku material is obtained. That is, a haiku material that includes a seasonal word acquired in step S39 or an independent word and a kansei word selected (selected) in step S43, or includes a word that is similar to (or similar to) the independent word or kansei word, that is, an upper phrase (5 characters) , The middle phrase (7 characters) and the lower phrase (5 characters) are acquired from the
[0070]
For example, in this embodiment, when the haiku material (phrase) is acquired based on the selected independent word or kansei word, the haiku material or kansei word is included in all the phrases recorded in the
[0071]
Subsequently, in step S47, a haiku text that satisfies the restrictions on the haiku composition is generated according to a procedure described later in detail. In brief, the haiku text data (haiku text) is created by combining the phrases acquired in step S45 so as to follow the patterns 5, 7, and 5 and to include the seasonal word in any one of the phrases.
[0072]
In step S49 shown in FIG. 7, the generated first haiku is compared with the existing haiku. That is, one haiku is selected from the generated haikus and compared with the haiku recorded in the
[0073]
If “NO” in the step S51, that is, if they do not match, the process directly proceeds to a step S55. On the other hand, if “YES” in the step S51, that is, if they match, in a step S53, the generated haiku is deleted, and the process proceeds to the step S55.
[0074]
In the step S55, it is determined whether or not the next haiku exists. If “YES” in the step S55, that is, if there is a next haiku, the next haiku is compared with the existing haiku in a step S57, and the process returns to the step S51. On the other hand, if “NO” in the step S55, that is, if there is no next haiku, the haiku is presented in the order of the score in a step S59, and the process is ended. That is, the generated haiku text data is transmitted to the
[0075]
However, the generated haikus may be transmitted one by one in the score order, or all the haikus generated by attaching the numbers according to the score order to each haiku may be transmitted together.
[0076]
The text data of the haiku sent to the
[0077]
However, instead of the blue background screen, the image from which the haiku was generated may be displayed on the
[0078]
When the process of generating a haiku text is started in step S47 in FIG. 6, as shown in FIG. 8, the
[0079]
Subsequently, in step S75, middle phrase candidates are extracted in descending order of similarity score. Then, in a step S77, a combination of the upper phrase and the middle phrase is generated. For example, in this embodiment, the upper phrase and the middle phrase are respectively combined in descending order of the similarity score. That is, the upper phrase candidate and the middle phrase candidate are combined like the first upper phrase and the first middle phrase, the second upper phrase and the second middle phrase, and so on. At this time, the upper and middle phrases are combined in this order.
[0080]
Then, in a step S79, the combinations of the upper phrase and the middle phrase are arranged in the order of score. However, here, a score (first score) obtained by adding the score of the similarity for each of the upper and middle phrases and a score (second connectivity) of the combination of the upper and middle phrases (good connectivity) The score (third score) is calculated by adding the upper phrase and the middle phrase in descending order of the third score.
[0081]
The second score is determined based on, for example, goodness of the connection between the meaning of the upper phrase and the middle phrase and the connection of the context, or whether or not the character includes a favorite character described in the user information (preference information). And is calculated according to a rule determined in advance by a developer or a designer.
[0082]
Next, in step S81, lower phrase candidates are extracted in descending order of the similarity score. Then, in step S83, a combination of an upper phrase, a middle phrase, and a lower phrase is generated. For example, in this embodiment, similar to the case where the upper phrase and the middle phrase are combined, the combination of the upper phrase and the middle phrase arranged in the descending order of the third score is displayed in the descending order of the similarity score. Concatenate the following phrases. At this time, the lower phrase is connected after the upper phrase / medium phrase.
[0083]
Then, in step S85, the combinations of the upper phrase, the middle phrase, and the lower phrase are arranged in the order of score. Here, a score (fourth score) obtained by adding the score of the similarity for each of the upper phrase, the middle phrase, and the lower phrase, and a score (second score) expressed by good connectivity between the upper phrase and the middle phrase, and the like. The score (sixth score) is calculated by adding the score (score) and the score (fifth score) represented by the good connectivity between the middle phrase and the lower phrase, and the upper phrase is determined in the descending order of the sixth score. A combination of a middle phrase and a lower phrase, that is, a plurality of haiku texts are arranged.
[0084]
When calculating the fifth score, as in the case of the second score, it is considered whether or not to include a favorite cut character described in the preference information.
[0085]
Finally, in step S87, the haiku text including two or more seasonal words is deleted from the generated haiku text, and the process of generating the haiku text is returned. Therefore, only the haiku text that satisfies the above-described haiku composition restrictions is generated.
[0086]
In this way, a plurality of haiku texts are generated. The combination of upper and middle phrases is reduced based on whether the third score is equal to or higher than a certain score, or based on whether the sixth score is equal to or higher than a certain score. It is also possible to reduce the generated haiku text. In addition, after a plurality of haiku texts are generated, the number of haiku texts may be adjusted by reducing the haiku texts having a low sixth score.
[0087]
According to this embodiment, a seasonal word or phrase used in a haiku is selected based on the characteristics of the image and the photographing information, and a haiku is created using a phrase including the seasonal word or phrase. Can be generated. That is, it is possible to generate a text having a content different from the content indicated by the information from multimedia information such as an image.
[0088]
In this embodiment, the haiku generation process is executed with the input of the transfer data as a trigger. However, the seasonal word determined (specified) after the acquisition of the transfer data is presented to the user, and the user is allowed to select the seasonal word. Then, the operation of the selection may be triggered by the operation of the haiku generation process.
[0089]
Further, in this embodiment, in order to simplify the operation of the user, the user information DB is provided, and the user information is read from the user information DB. Can be entered each time. In such a case, a haiku according to the user's preference at that time can be generated.
[0090]
Furthermore, in this embodiment, the
[0091]
A
[0092]
In the
[0093]
When the user inputs the compressed image data to the
[0094]
Note that, for convenience of the drawing, the photographing information is described so that only the positional information (photographing place), the photographing date and time, and the weather can be input. However, all the photographing information shown in the above-described embodiment can be input. it can.
[0095]
Further, on this shooting information input screen, a user ID can be input in other fields.
[0096]
The user can input shooting information and a user ID of an image displayed on the shooting information input screen using the input device. When the photographing information and the user ID are input on this photographing information input screen and the "OK" button is turned on, the
[0097]
According to the other embodiment, since the transfer data is directly input, there is no need to provide a plurality of sensors or the like in the camera, and a system that is less expensive than the above embodiment can be provided.
[0098]
Note that user information such as profile information can also be input by providing an input screen similar to that of shooting information.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing one example of a configuration of a haiku generation system of the present invention;
FIG. 2 is an illustrative view showing contents of a user information DB and an image DB shown in FIG. 1 embodiment;
FIG. 3 is an illustrative view showing contents of a knowledge DB and a haiku DB shown in the embodiment in FIG. 1;
FIG. 4 is a block diagram showing a specific configuration of the camera shown in FIG. 1 embodiment.
FIG. 5 is a flowchart showing the overall processing of the CPU of the camera shown in FIG. 1 embodiment.
FIG. 6 is a flowchart showing a part of a haiku generation process of a computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 7 is a flowchart showing another part of the haiku generation process of the computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 8 is a flowchart showing a haiku text generation process of a computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 9 is an illustrative view showing one example of a photographing information input screen displayed on a screen in another embodiment of the present invention;
[Explanation of symbols]
10 Haiku generation system
12 Camera
14, 18 ... communication device
16… Network
30… Haiku generator
32… Computer
34, 36, 38, 40, 42 ... DB
52… CCD imager
58… Signal processing circuit
64… Video encoder
66… Monitor
70 ... CPU
74… Interface
78… System controller
80 ... GPS
82… bearing sensor
84… Tilt sensor
86… Operation panel
88… Temperature sensor
90 ... humidity sensor
92 Clock circuit
Claims (14)
前記カメラは、
所望の画像を撮影する撮影手段、
少なくとも前記画像の撮影場所を特定する位置情報を含む撮影情報を取得する撮影情報取得手段、および
前記画像および前記撮影情報を前記通信網を介して前記俳句生成装置に送信する送信手段を備え、
前記俳句生成装置は、
前記送信手段によって送信された画像および撮影情報を受信する受信手段、
前記受信手段によって受信された前記画像を解析する解析手段、
前記解析手段の解析結果から前記画像の特徴を抽出する抽出手段、
前記抽出手段によって抽出された前記画像の特徴および前記受信手段によって受信された前記撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および
前記取出手段によって取り出された前記俳句素材を用いて俳句を生成する生成手段を備える、俳句生成システム。A haiku generation system in which a camera having a communication function and a haiku generation device are connected via a communication network,
The camera is
Photographing means for photographing a desired image,
A photographing information acquiring unit for acquiring photographing information including position information specifying at least a photographing place of the image, and a transmitting unit for transmitting the image and the photographing information to the haiku generating device via the communication network,
The haiku generator,
Receiving means for receiving the image and the photographing information transmitted by the transmitting means,
Analyzing means for analyzing the image received by the receiving means,
Extracting means for extracting features of the image from the analysis result of the analyzing means,
Using the haiku material extracted from the haiku material database based on the characteristics of the image extracted by the extracting device and the photographing information received by the receiving device, and the haiku material extracted by the extracting device A haiku generation system comprising a generation unit for generating a haiku.
前記カメラは、前記画像の撮影時における撮影方向情報を取得する方向取得手段をさらに備え、
前記俳句生成装置は、前記撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する推定手段、前記画像の特徴から撮影対象を特定する特定手段、前記推定手段によって推定される撮影対象と前記特定手段によって特定される撮影対象とを統合する統合手段をさらに備える、請求項1記載の俳句生成システム。The shooting information further includes shooting direction information at the time of shooting the image,
The camera further includes a direction obtaining unit that obtains shooting direction information at the time of shooting the image,
The haiku generation device includes: an estimating unit that estimates an imaging target based on position information and imaging direction information included in the imaging information; an identification unit that identifies an imaging target from characteristics of the image; and an imaging unit that is estimated by the estimation unit. The haiku generation system according to claim 1, further comprising an integrating unit configured to integrate the target and the imaging target specified by the specifying unit.
前記解析手段は、前記画像の輝度情報および色情報を解析し、
前記抽出手段は、前記解析手段の解析結果から得られる輝度情報および色情報と、前記付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出し、
前記特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて前記画像の撮影対象を特定する、請求項2記載の俳句生成システム。The haiku generating device further includes an image database that records a plurality of still images to which additional information including luminance information, color information, composition information, and object information are added,
The analysis means analyzes luminance information and color information of the image,
The extracting means determines the similarity between the luminance information and the color information obtained from the analysis result of the analyzing means and the luminance information and the color information included in the additional information, and is included in the additional information having the maximum similarity. Extract composition information and object information,
The haiku generation system according to claim 2, wherein the specifying unit specifies a shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
前記カメラは、前記画像の撮影日時を取得するための時計回路をさらに備え、
前記俳句生成装置は、少なくとも前記日時情報から特定される季節に対応する季語を決定する第1決定手段、前記画像の特徴および前記撮影情報の少なくとも一方に基づいて俳句に使用する語句を決定する第2決定手段、および前記第1決定手段によって決定される季語および前記第2決定手段で決定される語句の少なくとも一方を含む俳句素材を前記俳句素材データベースから選択する選択手段をさらに備える、請求項1ないし3のいずれかに記載の俳句生成システム。The shooting information further includes date and time information indicating a shooting date and time,
The camera further includes a clock circuit for acquiring the shooting date and time of the image,
The haiku generating device is a first determining unit that determines a seasonal word corresponding to a season specified from at least the date and time information, and a haiku generating unit that determines a phrase to be used in a haiku based on at least one of the characteristics of the image and the shooting information. 2. A haiku material including at least one of a seasonal word determined by the first determining device and a phrase determined by the second determining device, and a selecting device for selecting a haiku material from the haiku material database. 4. The haiku generation system according to any one of claims 1 to 3.
前記第1決定手段は、前記日時情報と前記ユーザ情報とから前記季語を決定する、請求項4記載の俳句生成システム。The haiku generation device further includes a user information database that records user information including at least information indicating user preference,
The haiku generation system according to claim 4, wherein the first determining means determines the seasonal word from the date and time information and the user information.
前記画像および撮影情報を入力する入力手段、
前記入力手段によって入力された前記画像を解析する解析手段、
前記解析手段の解析結果から前記画像の特徴を抽出する抽出手段、
前記抽出手段によって抽出された前記画像の特徴および前記撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および
前記取出手段によって取り出された前記俳句素材を用いて俳句を生成する生成手段を備える、俳句生成装置。A haiku generator that generates a haiku based on an image taken by a camera,
Input means for inputting the image and shooting information,
Analysis means for analyzing the image input by the input means,
Extracting means for extracting features of the image from the analysis result of the analyzing means,
Extracting means for extracting a haiku material from a haiku material database based on the characteristics of the image and the photographing information extracted by the extracting means, and generating means for generating a haiku using the haiku material extracted by the extracting means. Equipped with a haiku generator.
前記撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する推定手段、前記画像の特徴から撮影対象を特定する特定手段、前記推定手段によって推定される撮影対象と前記特定手段によって特定される撮影対象とを統合する統合手段をさらに備える、請求項8記載の俳句生成装置。The shooting information further includes shooting direction information at the time of shooting the image,
Estimating means for estimating a shooting target based on position information and shooting direction information included in the shooting information, specifying means for specifying a shooting target from the characteristics of the image, and a shooting target estimated by the estimating means and the specifying means 9. The haiku generation device according to claim 8, further comprising an integration unit configured to integrate the specified shooting target.
前記解析手段は、前記画像の輝度情報および色情報を解析し、
前記抽出手段は、前記解析手段の解析結果から得られる輝度情報および色情報と、前記付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出し、
前記特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて前記画像の撮影対象を特定する、請求項9記載の俳句生成装置。Further comprising an image database for recording a plurality of still images to which additional information including luminance information, color information, composition information and object information are added,
The analysis means analyzes luminance information and color information of the image,
The extracting means determines the similarity between the luminance information and the color information obtained from the analysis result of the analyzing means and the luminance information and the color information included in the additional information, and is included in the additional information having the maximum similarity. Extract composition information and object information,
10. The haiku generation device according to claim 9, wherein the specifying unit specifies a shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
少なくとも前記日時情報から特定される季節に対応する季語を決定する第1決定手段、前記画像の特徴および前記撮影情報の少なくとも一方に基づいて俳句に使用する語句を決定する第2決定手段、および前記第1決定手段によって決定される季語および前記第2決定手段で決定される語句の少なくとも一方を含む俳句素材を前記俳句素材データベースから選択する選択手段をさらに備える、請求項8ないし10のいずれかに記載の俳句生成装置。The shooting information further includes date and time information indicating a shooting date and time,
First determining means for determining a seasonal word corresponding to a season specified from at least the date and time information, second determining means for determining a phrase used in a haiku based on at least one of the characteristics of the image and the photographing information, and 11. The haiku material database according to claim 8, further comprising a selecting device for selecting a haiku material including at least one of a seasonal word determined by the first determining device and a phrase determined by the second determining device from the haiku material database. Haiku generator described.
前記第1決定手段は、前記日時情報と前記ユーザ情報とから前記季語を決定する、請求項11記載の俳句生成装置。Further comprising a user information database that records user information including at least information indicating user preference,
The haiku generating device according to claim 11, wherein the first determining means determines the seasonal word from the date and time information and the user information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002298191A JP2004133721A (en) | 2002-10-11 | 2002-10-11 | System and device for creating haiku (seventeen-syllabled poem) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002298191A JP2004133721A (en) | 2002-10-11 | 2002-10-11 | System and device for creating haiku (seventeen-syllabled poem) |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004133721A true JP2004133721A (en) | 2004-04-30 |
Family
ID=32287682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002298191A Pending JP2004133721A (en) | 2002-10-11 | 2002-10-11 | System and device for creating haiku (seventeen-syllabled poem) |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004133721A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159780A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Determination program, determination device, and determination method |
JP2020095615A (en) * | 2018-12-14 | 2020-06-18 | ヤフー株式会社 | Generator, method for generation, and generating program |
-
2002
- 2002-10-11 JP JP2002298191A patent/JP2004133721A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159780A (en) * | 2018-03-13 | 2019-09-19 | 富士通株式会社 | Determination program, determination device, and determination method |
JP7095322B2 (en) | 2018-03-13 | 2022-07-05 | 富士通株式会社 | Judgment program, judgment device, and judgment method |
JP2020095615A (en) * | 2018-12-14 | 2020-06-18 | ヤフー株式会社 | Generator, method for generation, and generating program |
JP7315321B2 (en) | 2018-12-14 | 2023-07-26 | ヤフー株式会社 | Generation device, generation method and generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9317531B2 (en) | Autocaptioning of images | |
US8295650B2 (en) | Information processing apparatus and method, and program | |
US7831598B2 (en) | Data recording and reproducing apparatus and method of generating metadata | |
JP5371489B2 (en) | Image management apparatus, control method therefor, program, and storage medium | |
US7672977B2 (en) | Image reproducing apparatus, method of controlling same and control program therefor | |
US9973649B2 (en) | Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program | |
JP2007027945A (en) | Photographing information presenting system | |
JP5478999B2 (en) | Imaging device | |
US20050267749A1 (en) | Information processing apparatus and information processing method | |
JP2007081681A (en) | Image pickup device and method therefor | |
JP4279083B2 (en) | Image processing method and apparatus, and image processing program | |
JP2007266902A (en) | Camera | |
JP2007164269A (en) | Retrieval device, retrieval/reproducing device, and image reproducing device | |
JP2012084052A (en) | Imaging apparatus, control method and program | |
JP4889554B2 (en) | Camera, content creation method, and program | |
JP4054167B2 (en) | Imaging device | |
JP2004133721A (en) | System and device for creating haiku (seventeen-syllabled poem) | |
JP2007156729A (en) | Retrieval device and retrieval method and camera having retrieval device | |
US20130106688A1 (en) | Image information processing apparatus | |
US11283945B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2014115388A (en) | Information processor, information processing system, control method, and program | |
JP2008102845A (en) | Information processing apparatus, method, and program | |
US8934738B2 (en) | Image processing apparatus and method for controlling the same | |
EP4184910A1 (en) | Information processing device, information processing method, and program | |
JP2007288409A (en) | Imaging apparatus with image data classifying function and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070123 |