JP2004133721A - System and device for creating haiku (seventeen-syllabled poem) - Google Patents

System and device for creating haiku (seventeen-syllabled poem) Download PDF

Info

Publication number
JP2004133721A
JP2004133721A JP2002298191A JP2002298191A JP2004133721A JP 2004133721 A JP2004133721 A JP 2004133721A JP 2002298191 A JP2002298191 A JP 2002298191A JP 2002298191 A JP2002298191 A JP 2002298191A JP 2004133721 A JP2004133721 A JP 2004133721A
Authority
JP
Japan
Prior art keywords
haiku
information
image
shooting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002298191A
Other languages
Japanese (ja)
Inventor
Masami Suzuki
鈴木 雅実
Takahiro Katagiri
片桐 恭弘
Norihiro Hagita
萩田 紀博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2002298191A priority Critical patent/JP2004133721A/en
Publication of JP2004133721A publication Critical patent/JP2004133721A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide new system and device for creating Haiku, which create Haiku on the basis of images. <P>SOLUTION: A Haiku creating system 10 includes a camera 12, and the camera 12 is connected to a Haiku creating device 30 through a network 16. The camera 12 not only photographs a desired image in accordance with user's operation but also acquires photographic information like a photographing place of the image. The image photographed in accordance with user's operation and photographic information are transmitted to the Haiku creating device 30. In response to reception of the image and photographic information, the Haiku creating device 30 analyzes the image to extract features (luminance information and color information) of the image and selects a season word and words (sensitivity words or independent words) for use in a Haiku from features of the image and photographic information and takes out phrases (Haiku materials) including the selected season word and words from a Haiku DB 40 and combined taken-out Haiku materials to create a Haiku so as to meet restrictions on Haiku composition. Thus the Haiku is created on the basis of the image. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【産業上の利用分野】
この発明は俳句生成システムおよび俳句生成装置に関し、特にたとえば、通信機能を備えるカメラと俳句生成装置とを通信網を介して接続した、俳句生成システムおよびその俳句生成装置に関する。
【0002】
【従来の技術】
この種の従来技術の一例が特許文献1に開示される。この従来技術の文生成装置では、入力される自然語文が、選択された文リズムパターンに合致するか否かを判別し、合致しない場合には当該文リズムパターンに合致するように、自然語文の一部を置き換えて出力するものである。
【0003】
【特許文献1】
特開平7−160709号(第10頁および第11頁,第14図)
【0004】
【発明が解決しようとする課題】
しかし、この従来技術では、入力されるのは自然語文すなわちテキストであり、テキストデータ以外のデータ(マルチメディアデータ)から文を生成することができなかった。一方、株式市場の株価変動をテキストで表現したり、天気図から気象概況文を生成したりするように、マルチメディア情報からテキストを生成する研究が進められているが、他の方法で表現された内容をテキストに変換するに過ぎず、画像 (映像)のようなマルチメディア情報から異なる新しい内容のテキストを生成するようなシステムや装置は存在しなかった。
【0005】
それゆえに、この発明の主たる目的は、画像に基づいて俳句を生成できる、新規な俳句生成システムおよび俳句生成装置を提供することである。
【0006】
【課題を解決するための手段】
第1の発明は、通信機能を備えるカメラと俳句生成装置とを通信網を介して接続した俳句生成システムであって、カメラは、所望の画像を撮影する撮影手段、少なくとも画像の撮影場所を特定する位置情報を含む撮影情報を取得する撮影情報取得手段、および画像および撮影情報を通信網を介して俳句生成装置に送信する送信手段を備え、俳句生成装置は、送信手段によって送信された画像および撮影情報を受信する受信手段、受信手段によって受信された画像を解析する解析手段、解析手段の解析結果から画像の特徴を抽出する抽出手段、抽出手段によって抽出された画像の特徴および受信手段によって受信された撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および取出手段によって取り出された俳句素材を用いて俳句を生成する生成手段を備える、俳句生成システムである。
【0007】
第2の発明は、カメラで撮影した画像に基づいて俳句を生成する俳句生成装置であって、画像および撮影情報を入力する入力手段、入力手段によって入力された画像を解析する解析手段、解析手段の解析結果から画像の特徴を抽出する抽出手段、抽出手段によって抽出された画像の特徴および撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および取出手段によって取り出された俳句素材を用いて俳句を生成する生成手段を備える、俳句生成装置である。
【0008】
【作用】
第1の発明の俳句生成システムでは、通信機能を備えるカメラと俳句生成装置とが通信網を介して接続される。カメラは、撮影手段によって所望の画像を撮影することができる。このとき、少なくとも撮影場所を特定するための位置情報を含む撮影情報が取得される。このような画像および撮影情報は、俳句生成装置に送信される。俳句生成装置は、画像および撮影情報を受信すると、当該画像を解析して、当該画像の特徴を抽出する。取出手段は、抽出された画像の特徴と撮影情報とに基づいて俳句素材データベースから俳句素材を取り出す。そして、生成手段が、取り出した俳句素材を用いて俳句を生成する。
【0009】
たとえば、カメラは、画像の撮影時における撮影方向情報を取得し、俳句生成装置は、撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する。また、抽出手段によって抽出された画像の特徴から撮影対象を特定する。そして、推定手段によって推定される撮影対象と特定手段によって特定される撮影対象とを統合する。つまり、撮影対象を異なる側面から検証して、撮影対象の整合を図っているのである。
【0010】
また、俳句生成装置には、輝度情報、色情報、構図情報および対象物情報を含む付加情報をそれぞれ付加した複数の静止画像を記録する画像データベースが設けられており、解析手段は、画像の輝度情報および色情報を解析し、抽出手段は、解析手段の解析結果から得られる輝度情報および色情報と、画像データベースに記録される静止画像の付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出する。したがって、特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて画像の撮影対象を特定することができる。
【0011】
さらに、カメラは時計回路を備えるので、画像の撮影日時の情報(日時情報)を取得することができる。この日時情報は撮影情報に含まれる。俳句生成装置では、第1決定手段が、少なくとも日時情報から特定される季節に対応する季語を決定する。また、第2決定手段が、画像の特徴(輝度情報および色情報)および撮影情報(撮影場所など)の少なくとも一方に基づいて俳句に使用する語句を決定する。選択手段は、第1決定手段によって決定される季語や第2決定手段で決定される語句の少なくとも一方を含む句すなわち俳句素材を俳句素材データベースから選択する。つまり、画像に基づく俳句素材を選択できるのである。
【0012】
たとえば、俳句生成装置は、少なくともユーザの好みを示す情報を含むユーザ情報を記録するユーザ情報データベースを備えるので、第1決定手段は、少なくとも日時情報に基づいて決定した季語をユーザ情報に従って絞り込むことができる。つまり、ユーザが好む季語を選別できるのである。
【0013】
また、組み合わせ手段は、取出手段によって取り出された俳句素材を俳句構成の規則を満たして組み合わせて、俳句を生成する。つまり、5・7・5のパターンに従うとともに、いずれか1つの句に季語を含むように、俳句を生成する。
【0014】
さらに、生成手段によって生成された俳句が既存の俳句と一致する場合には、当該生成された俳句を削除するので、新しい俳句のみを生成することができるのである。
【0015】
第2の発明の俳句生成装置は、通信機能を備えるカメラと通信網を介して接続するのではなく、一旦カメラで撮影した画像や撮影情報をオンライン又はオフラインで入力するようにしたものであり、上述した俳句生成装置と同じ構成とすることができる。
【0016】
ただし、第2の発明の俳句生成装置では、撮影情報をユーザが入力するようにすれば、カメラに撮影情報取得手段を設ける必要がない。このような場合には、上述したような俳句生成システムに比べて全体的に安価な構成にすることができる。
【0017】
【発明の効果】
この発明によれば、画像の特徴や撮影情報に基づいて取得される俳句素材を取り出して俳句を生成するので、画像に基づいて俳句を生成することができる。つまり、画像のようなマルチメディア情報から異なる内容を表現するテキストを生成することができる。
【0018】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0019】
【実施例】
図1を参照して、この実施例の俳句生成システム(以下、単に「システム」という。)はカメラ12を含み、このカメラ12には通信装置14が接続される。また、カメラ12は、通信装置14およびインターネット或いは電話網(携帯電話網を含む。)などの通信網(ネットワーク)16を介して通信装置18に接続される。この通信装置18には、俳句生成装置30に設けられるコンピュータ32が接続される。つまり、通信機能を備えるカメラ12と俳句生成装置30とがネットワーク16を介して通信可能に接続される。
【0020】
なお、カメラ12およびコンピュータ32は、それぞれ、通信機能を内部に備えるようにしてもよい。
【0021】
俳句生成装置30は、パーソナルコンピュータ或いはワークステーションのようなコンピュータ32を含み、このコンピュータ32には様々なデータベース(DB)が接続される。具体的には、ユーザ情報DB34,画像DB36,知識DB38,俳句DB40および地図DB42がコンピュータ32に接続される。
【0022】
なお、これらのDB34〜42は、コンピュータ32に直接接続されている必要はなく、上述したようなネットワーク16を介して接続されるようにしてもよい。
【0023】
ユーザ情報DB34には、図2(A)に示すように、俳句生成装置30を用いて俳句を生成する利用者(ユーザ)についての情報(ユーザ情報;プロファイル情報およびプリファレンス情報)がユーザ毎に記録される。たとえば、プロファイル情報としては、ユーザID(識別情報)、名前、性別および年齢等の情報が含まれる。また、プリファレンス情報としては、ユーザが好む俳句のタイプ、季語および切字等の情報が含まれる。
【0024】
このようなユーザ情報は、ユーザ登録時に入力される情報であり、図示は省略するが、コンピュータ32に接続されるキーボードやコンピュータマウスのような入力装置を用いて入力したり、ネットワーク16を介して接続される他の端末(カメラ12を含む。)を用いて入力したりすることができる。
【0025】
また、画像DB36には、複数の画像データが記録され、各画像データはカテゴリ分類されている。具体的には、画像データの明るさ(輝度)、色相(彩度)および構図(自然風景,人物+自然風景(背景),人物,人工物)等に基づいてカテゴリが分類されるが、この実施例では、各画像データに輝度情報、色情報、構図情報および対象物情報のラベル(付加情報)が付加される。つまり、図2(B)に示すように、画像DB36には、ラベルが付加された画像データのファイル(画像ファイル)が複数記録される。
【0026】
たとえば、画像データは、輝度値や色情報を特徴空間へ写像するなどして得られる画素情報から輝度分布および彩度分布のような画像の特徴を抽出することができる。このような画像の特徴を抽出する方法としては、たとえば、情報処理学会「人文科学とコンピュータ」研究会,’94 Vol.24,pp.9−16 の「絵画における感性情報の抽出−背景色と主要色の抽出−」や情報処理学会論文誌 ’99 Vol.40,No.03,pp.886−898の「感性語による画像検索とその精度評価」に開示される方法を適用することができる。
【0027】
また、構図情報や対象物情報は、画像DB36の作成者や開発者等が付加する情報である。つまり、作成者等は、構図すなわち自然風景,人物+自然風景,人物,人工物の別を記述するとともに、構図に含まれる自然風景や人工物のような対象物の別を記述する。この実施例では、対象物としては、たとえば、“山”,“川”,“海”、“街”および“寺社”などが該当し、比較的大まかに分類される。
【0028】
知識DB38には、歴史情報および観光情報が登録される。この歴史情報および観光情報は、地名、風景および寺社等の代表的な事物の名称であり、季語に関連してそれらを特定することができる。つまり、図3(A)に示すように、代表的な事物の名称と後述する俳句DB40に記録される季語(季語データ)とが対応して知識DB38に記述される。
【0029】
また、知識DB38には、自立語および感性語(印象語)に相当する複数の語句のデータが記録される。ここで、自立語とは、名詞、動詞、形容詞等の中身(意味)のある語をいい、接続詞、助詞や助動詞等の語を除く。たとえば、自立語としては、“○○寺院”,“△△草原”,“雷”,“空”,“聞”,“鳴”,“明るい”,“暗い”などの語が該当する。この自立語には、上述したような事物の名称も含まれる。また、感性語とは、感覚によってよび起され、それに支配される人間の体験内容を表す語をいい、たとえば、形容詞や副詞に相当する語がこれに該当する。たとえば、感性語(印象語)としては、“広い”,“狭い”,“大きい”,“大きな”,“小さい”,“小さな”,“きれい”,“きれいな”,“醜い”などの語が該当する。
【0030】
この自立語および感性語のそれぞれには、図3(A)に示すように、上述したような画像の特徴(輝度情報、色情報)および後述する撮影環境(撮影対象、撮影場所、撮影対象、撮影時の季節および天候)のラベルが付加されており、画像の特徴および撮影環境に基づいて特定することができる。
【0031】
つまり、知識DB38は、俳句に使用される語句(季語を含む。)を取得するための辞書DBと言うことができる。
【0032】
俳句DB40には、図3(B)に示すように、既存の俳句についてのテキストデータが複数記録されるとともに、各テキストデータは5・7・5のパターンに従って区分され、上句(最初の5文字)、中句(次の7文字)および下句(最後の5文字)の別を示す情報が付加される。このように、パターンに従って区分するのは、俳句を生成するための素材(俳句素材)として使用するためである。また、このような俳句素材は、俳句DB40の作成者や設計者によって追加・変更等される。
【0033】
また、この俳句DB40には、典型的な季語に相当する複数のテキストデータ(季語データ)が記録される。具体的には、図3(B)に示すように、季節(春,夏,秋,冬)毎に区分けされて、季節毎の季語データが複数記述される。つまり、季節(月日)に基づいて季語を選択することができる。ただし、季節を三春(初春・仲春・晩春)、三夏(初夏・仲夏・晩夏)、三秋(初秋・仲秋・晩秋)、三冬(初冬・仲冬・晩冬)のように詳細に分けて、それぞれに応じた季語データを記述するようにしてもよい。
【0034】
地図DB42には、特定の領域(この実施例では、日本全国)についての地図データが記録されており、緯度および経度、または、住所に基づいて場所(位置)を特定することができる。また、特定された位置(この実施例では、撮影場所)と、撮影時のカメラ12の方向(後述する方位情報および傾き情報)とから撮影対象(地図上における対象物)を推定することができる。
【0035】
図4はカメラ12の電気的な構成を示すブロック図であり、この図4を参照して、カメラ12はレンズ50を含み、このレンズ50から入射された被写体の光像がCCDイメージャ52によって電気信号に変換される。CCDイメージャ52は、たとえば原色ベイヤ配列の色フィルタを有し、CPU70の指示の下、プログレッシンブスキャン(画素順次走査)に従って、各画素の電気信号(カメラ信号)を出力する。
【0036】
CCDイメージャ52から出力されたカメラ信号は、CDS/AGC回路54に与えられる。CDS/AGC回路54は、CCDイメージャ52からのカメラ信号に、周知のノイズ除去およびレベル調整を施す。このCDS/AGC回路54によって処理されたカメラ信号は、A/D変換器56でディジタルデータ(カメラデータ)に変換される。A/D変換器56から出力されるカメラデータは、信号処理回路58に与えられる。
【0037】
信号処理回路58は、CPU70の指令信号に従って、A/D変換器56から与えられたカメラデータに色分離、白バランス調整、YUV変換などの処理を施し、被写体の光像に対応するYUVデータを生成する。生成されたYUVデータは、メモリ制御回路60によってSDRAMのようなRAM62に書き込まれる。一方、ビデオエンコーダ64は、CPU70からの処理指示に応答してYUVデータの読み出しをメモリ制御回路60に要求し、メモリ制御回路60によって読み出されたYUVデータをNTSC方式のコンポジット画像信号に変換する。変換されたコンポジット画像信号はモニタ66に与えられ、この結果、被写体のリアルタイムの動画像(スルー画像)がモニタ66に表示される。
【0038】
撮影モードでは、ユーザが所望のタイミングで操作パネル86に設けられるシャッタボタン(図示せず)を操作(オン)すると、撮影指示がシステムコントローラ(以下、単に「シスコン」という。)78からCPU70に与えられる。すると、CPU70は、撮影処理を実行する。
【0039】
CPU70は、最適シャッタスピードでの被写体の撮影ならびに光電変換された全ての画素信号の読み出しを、図示しないタイミングジェネレータ(TG)に命令する。これによって、シャッタボタンがオンされた時点の静止画像に対応する高解像度のカメラ信号がCCDイメージャ52から出力される。出力されたカメラ信号は上述と同様の処理を施され、高解像度のYUVデータがRAM62に一旦格納される。
【0040】
続いて、CPU70は、JPEGコーデックのような圧縮伸長回路72に対して圧縮指示を与える。圧縮伸長回路72は、圧縮指示に応答してメモリ制御回路60にYUVデータの読み出しを要求する。メモリ制御回路60は、RAM62に格納されたYUVデータつまり1画面分の静止画像データを読み出し、圧縮伸長回路72に与える。圧縮伸長回路72は、静止画像データをJPEGフォーマットに従って圧縮し、CPU70の指示の下、圧縮した画像データ(圧縮画像データ)をフラッシュメモリ76に書き込む。
【0041】
なお、この実施例では、フラッシュメモリ76に圧縮画像データを記録するようにしてあるが、メモリカードや光(磁気)ディスクのような着脱可能な記録媒体に記録するようにしてもよい。
【0042】
CPU70はまた、シスコン78から撮影指示が与えられると、シスコン78に撮影情報の取得を指示する。ここで、撮影情報とは、撮影時のカメラ12の位置情報(この実施例では、緯度および経度)、カメラ12(レンズ50)の左右(旋回)方向の情報(方位情報)、カメラ12の上下方向(傾き)の情報(傾き情報)、撮影時の気温の情報(温度情報)、撮影時の湿度の情報(湿度情報)および撮影の日時を示す日時情報などをいう。
【0043】
つまり、撮影モードでは、CPU70は、撮影指示に応答して上述したような撮影処理を実行するとともに、シスコン78に撮影情報の取得を指示する。これに応じて、シスコン78は、GPS80(アンテナを含む。)、方位センサ82、傾きセンサ84、温度センサ88、湿度センサ90および時計回路92の出力を検出し、上述したような撮影情報についてのデータ(撮影情報データ)を取得し、CPU70に与える。
【0044】
なお、この実施例では、CPU70に与えられる撮影情報データはテキストデータである。
【0045】
CPU70は、シスコン78から与えられた撮影情報データを、フラッシュメモリ76に記録した圧縮画像データに関連づけてEEPROM68に記録する。つまり、圧縮画像データとそれに関連する撮影情報データとには、同じファイル名を付けて、異なる拡張子で管理することができる。たとえば、圧縮画像データに“FILE01.jpg”のようなファイル名を付け、それに関連する撮影情報データに“FILE01.txt”のようなファイル名を付けて、管理することができる。
【0046】
さらに、撮影情報としては、撮影場所における撮影時点の天候の情報(気象情報)を加えることができる。たとえば、気象情報はユーザが操作パネル86を操作して入力(追加)できる。
【0047】
また、再生モードでは、モニタ66に圧縮画像データのサムネイル画像或いはファイル名が表示され、ユーザは操作パネル86に設けられるカーソルキー(図示せず)等を操作して、所望の画像を選択することができる。所望の画像(サムネイル画像或いはファイル名)を選択し、操作パネル86に設けられる再生ボタン(図示せず)を操作すると、当該所望の画像についての再生指示がシスコン78からCPUに70に与えられ、これに応答して、CPU70は選択された画像に対応する圧縮画像データをフラッシュメモリ76から読み出す。
【0048】
続いて、CPU70は、伸長指示を圧縮伸長回路72に与えるとともに、読み出した圧縮画像データを圧縮伸長回路72に与える。圧縮伸長回路72は、圧縮画像データに対してJPEGフォーマットに従った伸長処理を施し、メモリ制御回路60に書き込み指示を与える。すると、メモリ制御回路60によって、伸長処理が施された画像データがRAM62に格納される。
【0049】
そして、CPU70は、ビデオエンコーダ64に処理指示を与える。これに応答して、ビデオエンコーダ64は、YUVデータの読み出しをメモリ制御回路60に要求し、メモリ制御回路60によって読み出されたYUVデータをNTSC方式のコンポジット画像信号に変換する。変換されたコンポジット画像信号はモニタ66に与えられ、選択された所望の撮影画像(静止画像)がモニタ66に表示される。
【0050】
さらに、転送モードでは、再生時と同様にモニタ66に圧縮画像データのサムネイル画像或いはファイル名が表示され、所望の画像を選択することができる。また、ユーザは、操作パネル86を操作して、個人情報を入力することができる。この実施例では、たとえば、上述したようなユーザ情報に含まれるユーザIDが入力される。
【0051】
続いて、操作パネル86に設けられる転送ボタン(図示せず)が操作されると、シスコン78は転送指示をCPU70に入力する。これに応答して、CPU70は、先に入力されたユーザID、選択された画像に対応する圧縮画像データおよび当該圧縮画像データに関連する撮影情報データをひとまとまりの転送データとして、インターフェイス74を介して転送する。転送データは、図1に示したように、通信装置14、ネットワーク16および通信装置18を介して俳句生成装置30(コンピュータ32)に転送される。
【0052】
なお、撮影モード、再生モードおよび転送モードの各モードは、操作パネル86に設けられるモード選択ボタン(図示せず)を操作することにより、それぞれ設定される。
【0053】
具体的には、カメラ12のCPU70は、図5に示すフロー図に従って処理する。図5に示すように、カメラ12の主電源がオンされると、CPU70は処理を開始し、ステップS1で撮影モードかどうかを判断する。ステップS1で“NO”であれば、つまり撮影モードでなければ、そのままステップS11に進む。一方、ステップS1で“YES”であれば、つまり撮影モードであれば、ステップS3でシャッタボタンがオンされたかどうかを判断する。
【0054】
ステップS3で“NO”であれば、つまりシャッタボタンがオンされなければ、そのまま同じステップS3に戻る。一方、ステップS3で“YES”であれば、つまりシャッタボタンがオンされれば、これに応じて、ステップS5で上述したような撮影処理を実行する。
【0055】
次いで、ステップS7で、撮影情報データを取得する。つまり、シスコン78に撮影情報の取得を指示する。すると、上述したように、シスコン78は、GPS80、方位センサ82、傾きセンサ84、温度センサ88、湿度センサ90および時計回路92の出力を検出し、その検出結果から位置情報(経度、緯度)、カメラ12(レンズ50)の方位情報、カメラ12(レンズ50)の傾き情報、気温、湿度および日時を取得する。そして、ステップS9では、取得した撮影情報データを、撮影画像の圧縮画像データに関連づけてEEPROM68に記録して処理を終了する。
【0056】
ステップS11では、転送モードかどうかを判断する。ステップS11で“NO”であれば、つまり転送モードでなければ、そのままステップS21に進む。一方、ステップS11で“YES”であれば、つまり転送モードであれば、ステップS13で画像が選択されたかどうかを判断する。ステップS13で“NO”であれば、つまり転送する画像が選択されていなければ、そのまま同じステップS13に戻る。
【0057】
一方、ステップS13で“YES”であれば、つまり転送する画像が選択されれば、ステップS15でユーザID(ユーザ情報)が入力されたかどうかを判断する。ステップS15で“NO”であれば、つまりユーザIDが入力されていなければ、そのまま同じステップS15に戻る。一方、ステップS15で“YES”であれば、つまりユーザIDが入力されれば、ステップS17で、転送ボタンがオンされたかどうかを判断する。
【0058】
ステップS17で“NO”であれば、つまり転送ボタンがオンされなければ、そのままステップS17に戻って、転送ボタンがオンされるまで待機する。一方、ステップS17で“YES”であれば、つまり転送ボタンがオンされれば、ステップS19で、選択された画像に対応する圧縮画像データをフラッシュメモリ76から読み出すとともに、当該圧縮画像データに関連づけて記録される撮影情報データをEEPROM68から読み出して、先に入力されたユーザIDと一緒にネットワーク16を介して俳句生成装置30に転送して処理を終了する。つまり、転送データがコンピュータ32に転送される。
【0059】
また、ステップS21では、再生モードかどうかを判断する。ステップS21で“NO”であれば、つまり再生モードでなければ、そのままステップS1に戻る。一方、ステップS21で“YES”であれば、つまり再生モードであれば、ステップS23で画像が選択されたかどうかを判断する。ステップS23で“NO”であれば、つまり再生する画像が選択されていなければ、そのまま同じステップS23に戻る。一方、ステップS23で“YES”であれば、つまり再生する画像が選択されれば、ステップS25で、選択された画像について、上述したような再生処理を実行して処理を終了する。
【0060】
一方、俳句生成装置30に含まれるコンピュータ32は、図6および図7に示すフロー図に従って俳句生成処理を実行する。図6に示すように、コンピュータ32は、俳句生成処理を開始すると、ステップS31でデータすなわち転送データ(ユーザID、圧縮画像データおよび撮影情報データ)を受信したかどうかを判断する。ステップS31で“NO”であれば、つまり転送データを受信していなければ、そのまま同じステップS31に戻る。
【0061】
一方、ステップS31で“YES”であれば、つまり転送データを受信すれば、ステップS33でユーザ情報を読み出す。具体的には、転送データに含まれるユーザIDを参照して、ユーザ情報DB34に記録されるユーザ情報を読み出す。続くステップS35では、受信した画像データを解析する。つまり、受信した圧縮画像データをJPEGフォーマットに従って伸長して、画像(撮影画像)の輝度分布および彩度分布を解析する。
【0062】
そして、ステップS37で、画像の特徴を抽出する。つまり、撮影画像の解析結果(輝度分布、彩度分布)から、画像DB36に記録される画像データとの類似度を算出して、算出結果から一致または最も近似する画像データを特定し、特定した画像データのラベルに記述される構図情報および対象物情報を取得する。
【0063】
続いて、ステップS39では、撮影情報データから撮影環境を作成する。ここで、撮影環境とは、撮影場所、撮影対象、撮影時の季節および天候(気温、湿度を含む。)をいう。具体的には、まず、撮影情報データに含まれる位置情報(緯度および経度)を地図DB42に入力し、カメラ12の位置(撮影場所)を特定する。次いで、撮影情報データに含まれる方位情報および傾き情報が地図DB42に入力されると、先に特定した撮影場所、方位情報および傾き情報に基づいて地図上の対象物(撮影対象)が推定される。次に、撮影情報データに含まれる日時情報および特定した撮影場所から季節を推定する。さらに、撮影情報データに含まれる温度情報や湿度情報から季節を確定する。このとき、確定した季節に応じた季語が俳句DB40から取得される。
【0064】
なお、上述したように、撮影情報に気象情報が含まれる場合には、さらに撮影時の天候を撮影環境情報に追加することができる。或いは、インターネット上で提供される気象情報を、撮影場所および撮影日時に基づいて取得することも可能である。
【0065】
次のステップS41では、画像データと撮影情報データとをマッチングして撮影環境を統合する。具体的には、ステップS37において取得した構図情報および対象物情報で特定される撮影対象と、撮影情報データに含まれる撮影場所、方位情報および傾き情報から特定される撮影対象とを統合する。たとえば、画像データに基づく構図情報および対象物情報から撮影対象が“山”と特定された場合に、撮影情報データに含まれる撮影場所、方位情報および傾き情報から推定(特定)される撮影対象が“寺院”である場合には、画像データから特定される撮影対象と撮影情報データから特定される撮影対象とが一致しないため、撮影対象は撮影環境から排除される。また、撮影情報データから推定される撮影対象が“湖畔”である場合には、画像データから特定される撮影対象と撮影情報データから特定される撮影対象とが一致しないが、互いの撮影対象を補完して、撮影環境の撮影対象を“山”および“湖畔”のように決定することもできる。つまり、撮影対象を画像データと撮影情報データとの異なる側面から検証した場合に、不一致となる情報を削除したり、互いに補完したりすることにより、撮影環境の整合(最適化)を図っているのである。
【0066】
なお、このような最適化においては、一致しない情報を削除したり、互いに補完したりするようにしてあるが、これは、予め開発者や設計者によって決められるルールに従って実行される。
【0067】
続くステップS43では、ユーザ情報、画像の特徴および撮影環境に基づいて自立語および感性語を選択する。つまり、画像の特徴および撮影環境に基づいて知識DB38から自立語および感性語を選択し、選択された自立語および感性語の中からユーザ情報に基づいてユーザの性別、年齢、好みの俳句タイプ等に合う自立語および感性語が選別される。
【0068】
なお、このとき、撮影環境から取得された季語に基づいて、観光情報および歴史情報に含まれる事物の名称(自立語)も取得される。
【0069】
そして、ステップS45では、俳句素材を取得する。つまり、ステップS39において取得された季語やステップS43において選択(選別)された自立語および感性語を含む或いは自立語や感性語に近似(類似)する語句を含む俳句素材すなわち上句(5文字)、中句(7文字)および下句(5文字)のそれぞれが俳句DB40から取得される。
【0070】
たとえば、この実施例では、選択された自立語や感性語に基づいて俳句素材(句)を取得する場合には、当該自立語や感性語と、俳句DB40に記録されるすべての句に含まれる語句との間で類似度のスコアが計算され、一定のスコア以上となる語句を含む句が取得される。ここで、類似度とは、語句の意味が類似する度合いをいう。
【0071】
続いて、ステップS47では、後で詳細に説明する手順に従って、俳句構成上の制約を満たす俳句テキストを生成する。簡単に言うと、5,7,5のパターンに従うとともに、いずれか1つの句に季語を含むように、ステップS45において取得した句を組み合わせて俳句のテキストデータ(俳句テキスト)を作成する。
【0072】
図7に示すステップS49では、生成した1番目の俳句と既存の俳句とを比較する。つまり、生成した俳句の中から1つの俳句を選択し、俳句DB40に記録される俳句と比較する。続くステップS51では、両者が同じである(一致する)かどうかを判断する。
【0073】
ステップS51で“NO”であれば、つまり両者が一致しなければ、そのままステップS55に進む。一方、ステップS51で“YES”であれば、つまり両者が一致すれば、ステップS53で、当該生成した俳句を削除してからステップS55に進む。
【0074】
ステップS55では、次の俳句があるかどうかを判断する。ステップS55で“YES”であれば、つまり次の俳句があれば、ステップS57で次の俳句と既存の俳句とを比較して、ステップS51に戻る。一方、ステップS55で“NO”であれば、つまり次の俳句がなければ、ステップS59で、スコア順に俳句を提示して、処理を終了する。つまり、生成した俳句のテキストデータをネットワーク16を介してカメラ12に送信する。
【0075】
ただし、生成した俳句をスコア順に1つずつ送信するようにしてもよく、また、スコア順に従った番号を各俳句に付して生成したすべての俳句をまとめて送信するようにしてもよい。
【0076】
なお、カメラ12に送信された俳句のテキストデータは、インターフェイス74を介してCPU70に与えられ、CPU70からEEPROM68に記録される。その後、ユーザが操作パネル86を操作して、俳句の出力指示を入力すると、シスコン78からCPU70に俳句の出力指示が与えられる。これに応じて、CPU70は、EEPROM68に記録された俳句のテキストデータを読み出し、ビデオエンコーダ64に処理指示を与える。すると、たとえば、ブルーバック画面に俳句のテキストが記述された画面がモニタ66に表示される。
【0077】
ただし、ブルーバック画面に変えて、当該俳句を生成する元になった画像をモニタ66に表示し、その画像に俳句のテキストを上書きするようにしてもよい。
【0078】
図6のステップS47で俳句テキストの生成処理が開始されると、図8に示すように、コンピュータ32は、ステップS71で、俳句DB40から取り出した俳句素材から上句となり得る句の候補を取り出す。続くステップS73では、取り出した上句の候補をスコア順に並べる。つまり、自立語や感性語との類似度のスコア順に並べる。
【0079】
続いて、ステップS75では、類似度のスコアが高い順に中句の候補を取り出す。そして、ステップS77では、上句と中句との組み合わせを生成する。たとえば、この実施例では、上句および中句は、それぞれ、類似度のスコアが高い順に組み合わせられる。つまり、1番目の上句と1番目の中句と、2番目の上句と2番目の中句と、…、のように、上句の候補と中句の候補とが組み合わせられる。このとき、上句・中句の順で組み合わせられる。
【0080】
そして、ステップS79では、上句と中句との組み合わせをスコア順に並べる。ただし、ここでは、上句および中句のそれぞれについての類似度のスコアを加算したスコア(第1スコア)と、上句と中句との組み合わせの良さ(連結性の良さ)のスコア(第2スコア)とを加算したスコア(第3スコア)が計算され、この第3スコアの高い順に上句と中句との組み合わせが並べられる。
【0081】
第2スコアは、たとえば、上句と中句との意味の連結性や文脈の連結性などの良さ或いはユーザ情報(プリファレンス情報)に記述される好みの切れ字を含むか否かで決定されるスコアであり、予め開発者や設計者によって決められるルールに従って計算される。
【0082】
次にステップS81では、類似度のスコアが高い順に下句の候補を取り出す。そして、ステップS83では、上句と中句と下句との組み合わせを生成する。たとえば、この実施例では、上句と中句とを組み合わせた場合と同様に、第3スコアの高い順に並べられた上句と中句との組み合わせに対して、類似度のスコアが高い順で下句を連結する。このとき、上句・中句に続いて下句が連結される。
【0083】
そして、ステップS85では、上句と中句と下句との組み合わせをスコア順に並べる。ここでは、上句、中句および下句のそれぞれについての類似度のスコアを加算したスコア(第4スコア)と、上句と中句との連結性の良さ等で表されるスコア(第2スコア)と、中句と下句との連結性の良さ等で表されるスコア(第5スコア)とを加算したスコア(第6スコア)が計算され、この第6スコアの高い順に上句と中句と下句との組み合わせすなわち複数の俳句テキストが並べられる。
【0084】
なお、第5スコアを計算する場合には、第2スコアと同様に、プリファレンス情報に記述される好みの切れ字を含むか否か考慮される。
【0085】
最後に、ステップS87では、生成した俳句テキストのうち、季語が2つ以上含まれる俳句テキストを削除して、俳句テキストの生成処理をリターンする。したがって、上述したような俳句構成の制約を満たす俳句テキストのみが生成される。
【0086】
このようにして、複数の俳句テキストが生成されるが、第3スコアが一定スコア以上かどうかに基づいて上句と中句との組み合わせを減らしたり、第6スコアが一定スコア以上かどうかに基づいて生成した俳句テキストを減らしたりすることも可能である。また、複数の俳句テキストを生成した後に、第6スコアが低い俳句テキストを削減して、俳句テキストの数を調整するようにしてもよい。
【0087】
この実施例によれば、画像の特徴および撮影情報に基づいて俳句に使用する季語や語句を選択し、当該季語や語句を含む句を用いて俳句を作成するので、撮影した画像に基づいて俳句を生成することができる。つまり、画像のようなマルチメディア情報から、当該情報が示す内容とは異なる内容のテキストを生成することができる。
【0088】
なお、この実施例では、転送データの入力をトリガとして、俳句生成処理を実行するようにしたが、転送データを取得後に確定(特定)した季語をユーザに提示し、ユーザに季語を選択させるようにして、その選択についての操作があったときを俳句生成処理のトリガにするようにしてもよい。
【0089】
また、この実施例では、ユーザの操作を簡略化するために、ユーザ情報DBを設けて、そこからユーザ情報を読み出すようにしたが、ユーザ情報はユーザが俳句の生成指示を入力する(転送データを送信する)度に入力することもできる。かかる場合には、その時々のユーザの好みに応じた俳句を生成することができる。
【0090】
さらに、この実施例では、ネットワーク16を介してカメラ12と俳句生成装置30(コンピュータ32)とを接続するようにしたが、USBケーブルのようなケーブルを用いて接続するようにしてもよい。この場合には、遠隔地に存在する場合だけでなく、俳句生成装置の近傍に存在する場合にも手軽に俳句を楽しむことができる。
【0091】
この発明の他の実施例の俳句生成装置30は、転送データ(ユーザID、圧縮画像データおよび撮影情報データ)を直接コンピュータ32に入力するように構成した以外は、上述の実施例と同じであるため、重複した説明は省略する。
【0092】
この他の実施例の俳句生成装置30では、カメラ12とコンピュータ32とをたとえばUSBケーブル(図示せず)で接続して、カメラ12からコンピュータ32に圧縮画像データを入力(転送)し、ユーザが撮影情報を別途入力するようにしてある。つまり、図1および図4に示したカメラ12は、少なくとも撮影機能のみを有していれば良く、汎用のディジタルカメラを用いることができる。
【0093】
ユーザが圧縮画像データをコンピュータ32に入力すると、コンピュータ32に接続されるモニタ(図示せず)に、図9に示すような撮影情報入力画面が表示される。この撮影情報入力画面では、ユーザがコンピュータ32に入力した圧縮画像データに基づく画像が表示されるとともに、撮影情報のそれぞれを入力するための欄が表示される。さらに、撮影情報の入力欄の下方には“OK”ボタンおよび“キャンセル”ボタンが表示される。
【0094】
なお、図面の都合上、撮影情報としては、位置情報(撮影場所),撮影日時,天候のみを入力できるように記載してあるが、上述の実施例で示した撮影情報をすべて入力することができる。
【0095】
また、この撮影情報入力画面では、その他の欄にユーザIDを入力することができる。
【0096】
ユーザは、撮影情報入力画面に表示される画像についての撮影情報およびユーザIDを入力装置を用いて入力することができる。この撮影情報入力画面において、撮影情報およびユーザIDが入力され、“OK”ボタンがオンされると、コンピュータ32は上述の実施例で示したような俳句生成処理を実行する。つまり、上述の実施例では、転送データの受信をトリガとして俳句生成処理が実行されたが、他の実施例では、“OK”ボタンのオンをトリガとして俳句生成処理が実行される。ただし、俳句生成(入力)を止める場合には、“キャンセル”ボタンをオンすればよい。
【0097】
この他の実施例によれば、転送データを直接入力するようにしたので、カメラに複数のセンサ等を設ける必要がなく、上述の実施例に比べて安価なシステムを提供することができる。
【0098】
なお、プロファイル情報などのユーザ情報についても、撮影情報と同様の入力画面を設けて入力することが可能である。
【図面の簡単な説明】
【図1】この発明の俳句生成システムの構成の一例を示す図解図である。
【図2】図1実施例に示すユーザ情報DBおよび画像DBの内容を示す図解図である。
【図3】図1実施例に示す知識DBおよび俳句DBの内容を示す図解図である。
【図4】図1実施例に示すカメラの具体的な構成を示すブロック図である。
【図5】図1実施例に示すカメラのCPUの全体処理を示すフロー図である。
【図6】図1実施例に示す俳句生成装置のコンピュータの俳句生成処理の一部を示すフロー図である。
【図7】図1実施例に示す俳句生成装置のコンピュータの俳句生成処理の他の一部を示すフロー図である。
【図8】図1実施例に示す俳句生成装置のコンピュータの俳句テキストの生成処理を示すフロー図である。
【図9】この発明の他の実施例で画面表示される撮影情報入力画面の一例を示す図解図である。
【符号の説明】
10 …俳句生成システム
12 …カメラ
14,18 …通信装置
16 …ネットワーク
30 …俳句生成装置
32 …コンピュータ
34,36,38,40,42 …DB
52 …CCDイメージャ
58 …信号処理回路
64 …ビデオエンコーダ
66 …モニタ
70 …CPU
74 …インターフェイス
78 …システムコントローラ
80 …GPS
82 …方位センサ
84 …傾きセンサ
86 …操作パネル
88 …温度センサ
90 …湿度センサ
92 …時計回路
[0001]
[Industrial applications]
The present invention relates to a haiku generation system and a haiku generation device, and more particularly to, for example, a haiku generation system and a haiku generation device in which a camera having a communication function and a haiku generation device are connected via a communication network.
[0002]
[Prior art]
An example of this type of prior art is disclosed in Patent Document 1. In this prior art sentence generation device, it is determined whether or not an input natural language sentence matches a selected sentence rhythm pattern, and if not, a natural language sentence is matched so as to match the sentence rhythm pattern. It is output with some parts replaced.
[0003]
[Patent Document 1]
JP-A-7-160709 (pages 10 and 11, FIG. 14)
[0004]
[Problems to be solved by the invention]
However, in this conventional technique, the input is a natural language sentence, that is, a text, and a sentence cannot be generated from data (multimedia data) other than text data. On the other hand, studies are being conducted to generate text from multimedia information, such as expressing stock price fluctuations in the stock market in text or generating weather summary sentences from weather maps, but other methods are used to express text. There was no system or device that simply converted the content into text and generated text with different new content from multimedia information such as images (video).
[0005]
Therefore, a main object of the present invention is to provide a new haiku generation system and a new haiku generation device capable of generating a haiku based on an image.
[0006]
[Means for Solving the Problems]
A first invention is a haiku generating system in which a camera having a communication function and a haiku generating device are connected via a communication network, wherein the camera specifies a photographing means for photographing a desired image, at least a photographing place of the image. Photographing information acquiring means for acquiring photographing information including position information to be transmitted, and transmitting means for transmitting the image and the photographing information to the haiku generating device via a communication network, wherein the haiku generating device transmits the image and the image transmitted by the transmitting means. Receiving means for receiving the photographing information, analyzing means for analyzing the image received by the receiving means, extracting means for extracting image features from the analysis result of the analyzing means, image features extracted by the extracting means and receiving by the receiving means Extracting means for extracting haiku material from the haiku material database based on the obtained photographing information, and haiku material extracted by the extracting means Using comprises generating means for generating a haiku with a haiku generation system.
[0007]
A second invention is a haiku generation device that generates a haiku based on an image captured by a camera, an input unit that inputs an image and photographing information, an analysis unit that analyzes the image input by the input unit, and an analysis unit. Extracting means for extracting the features of the image from the analysis result of the image, extracting means for extracting the haiku material from the haiku material database based on the image characteristics and the photographing information extracted by the extracting means, and haiku material extracted by the extracting means. A haiku generating apparatus comprising a generating means for generating a haiku.
[0008]
[Action]
In the haiku generation system of the first invention, a camera having a communication function and a haiku generation device are connected via a communication network. The camera can take a desired image by the photographing means. At this time, shooting information including at least position information for specifying the shooting location is obtained. Such images and photographing information are transmitted to the haiku generator. Upon receiving the image and the photographing information, the haiku generation device analyzes the image and extracts features of the image. The extracting means extracts a haiku material from the haiku material database based on the extracted image features and shooting information. Then, the generating means generates a haiku using the taken haiku material.
[0009]
For example, the camera acquires shooting direction information at the time of shooting an image, and the haiku generation device estimates a shooting target based on the position information and shooting direction information included in the shooting information. Further, the photographing target is specified from the features of the image extracted by the extracting means. Then, the imaging target estimated by the estimation unit and the imaging target specified by the identification unit are integrated. That is, the photographing target is verified from different aspects, and the matching of the photographing target is achieved.
[0010]
Further, the haiku generating apparatus is provided with an image database for recording a plurality of still images to which additional information including luminance information, color information, composition information, and object information are added, respectively. The information and color information are analyzed, and the extraction unit determines the similarity between the luminance information and color information obtained from the analysis result of the analysis unit and the luminance information and color information included in the additional information of the still image recorded in the image database. Then, the composition information and the object information included in the additional information having the maximum similarity are extracted. Therefore, the specifying unit can specify the shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
[0011]
Furthermore, since the camera is provided with a clock circuit, it is possible to acquire information on the shooting date and time of the image (date and time information). This date and time information is included in the shooting information. In the haiku generating device, the first determining means determines a seasonal word corresponding to at least the season specified from the date and time information. In addition, the second determining means determines a phrase to be used in a haiku based on at least one of image characteristics (luminance information and color information) and photographing information (such as photographing place). The selecting means selects, from the haiku material database, a phrase including at least one of a seasonal word determined by the first determining means and a phrase determined by the second determining means, that is, a haiku material. In other words, you can select a haiku material based on the image.
[0012]
For example, the haiku generation device includes a user information database that records user information including at least information indicating the user's preference, so that the first determination unit can narrow down seasonal words determined based on at least date and time information according to the user information. it can. That is, the seasonal word that the user likes can be selected.
[0013]
The combination means combines the haiku materials extracted by the extraction means so as to satisfy the rules of the haiku composition to generate a haiku. In other words, the haiku is generated so as to follow the pattern of 5.7.5, and include the seasonal word in any one of the phrases.
[0014]
Furthermore, if the haiku generated by the generating means matches an existing haiku, the generated haiku is deleted, so that only a new haiku can be generated.
[0015]
A haiku generation device according to a second aspect of the present invention is configured such that an image or photographing information once photographed by a camera is input online or offline without connecting to a camera having a communication function via a communication network. The same configuration as the above-described haiku generation device can be used.
[0016]
However, in the haiku generation device of the second invention, if the user inputs the photographing information, it is not necessary to provide the camera with photographing information acquisition means. In such a case, it is possible to make the overall configuration cheaper than the haiku generation system described above.
[0017]
【The invention's effect】
According to the present invention, a haiku is generated by extracting a haiku material acquired based on the characteristics of the image and the photographing information, so that the haiku can be generated based on the image. That is, text expressing different contents can be generated from multimedia information such as an image.
[0018]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0019]
【Example】
Referring to FIG. 1, the haiku generation system (hereinafter, simply referred to as “system”) of this embodiment includes a camera 12, and a communication device 14 is connected to the camera 12. The camera 12 is connected to a communication device 18 via a communication device 14 and a communication network (network) 16 such as the Internet or a telephone network (including a mobile telephone network). A computer 32 provided in the haiku generator 30 is connected to the communication device 18. That is, the camera 12 having the communication function and the haiku generation device 30 are communicably connected via the network 16.
[0020]
Note that each of the camera 12 and the computer 32 may have a communication function therein.
[0021]
The haiku generator 30 includes a computer 32 such as a personal computer or a workstation, to which various databases (DB) are connected. Specifically, the user information DB 34, the image DB 36, the knowledge DB 38, the haiku DB 40, and the map DB 42 are connected to the computer 32.
[0022]
Note that these DBs 34 to 42 need not be directly connected to the computer 32 but may be connected via the network 16 as described above.
[0023]
As shown in FIG. 2A, information (user information; profile information and preference information) about a user (user) who generates a haiku using the haiku generating device 30 is stored in the user information DB 34 for each user. Be recorded. For example, the profile information includes information such as a user ID (identification information), name, gender, and age. Also, the preference information includes information such as a haiku type, a seasonal word, and a cut character that the user prefers.
[0024]
Such user information is information input at the time of user registration, and although not shown, is input using an input device such as a keyboard or a computer mouse connected to the computer 32, or is input via the network 16. It can be input using another connected terminal (including the camera 12).
[0025]
In the image DB 36, a plurality of image data are recorded, and each image data is classified into categories. Specifically, the categories are classified based on the brightness (luminance), hue (saturation), composition (natural landscape, person + natural landscape (background), person, artifact) of the image data. In the embodiment, labels (additional information) of luminance information, color information, composition information, and object information are added to each image data. That is, as shown in FIG. 2B, a plurality of image data files (image files) to which labels have been added are recorded in the image DB 36.
[0026]
For example, image data can extract image features such as luminance distribution and saturation distribution from pixel information obtained by mapping luminance values and color information into a feature space. As a method of extracting such a feature of an image, for example, an information processing society “humanities and computers” study group, '94 Vol. 24, pp. 9-16, "Extraction of Kansei Information in Painting-Extraction of Background Color and Main Color-" and IPSJ Transactions '99 Vol. 40, no. 03, pp. The method disclosed in “Image Search Using Kansei Words and Evaluation of Its Accuracy” at 886-898 can be applied.
[0027]
The composition information and the object information are information added by a creator or a developer of the image DB 36. In other words, the creator and the like describe the composition, that is, the natural landscape, the person + the natural landscape, the person, and the artificial object, and also describe the object such as the natural landscape and the artificial object included in the composition. In this embodiment, the objects correspond to, for example, “mountain”, “river”, “sea”, “town”, “temple” and the like, and are relatively roughly classified.
[0028]
History information and sightseeing information are registered in the knowledge DB 38. The history information and the sightseeing information are names of representative things such as place names, scenery, temples and shrines, and can be specified in relation to seasonal words. In other words, as shown in FIG. 3A, the names of representative things and seasonal words (seasonal data) recorded in a haiku DB 40 described later are described in the knowledge DB 38 in association with each other.
[0029]
Further, in the knowledge DB 38, data of a plurality of phrases corresponding to an independent word and a feeling word (impression word) are recorded. Here, the independent word means a word having a content (meaning) such as a noun, a verb, or an adjective, and excludes a word such as a conjunction, a particle, or an auxiliary verb. For example, words such as ““ temple ”,“ ○ grassland ”,“ thunder ”,“ sky ”,“ listening ”,“ sound ”,“ bright ”, and“ dark ”correspond to the independent words. This independent word includes the name of an object as described above. In addition, the kansei word refers to a word that is called up by a sense and represents the content of human experience dominated by the sense, and for example, a word corresponding to an adjective or an adverb corresponds thereto. For example, sentiment words (impression words) include words such as “wide”, “narrow”, “large”, “large”, “small”, “small”, “pretty”, “pretty”, and “ugly”. Applicable.
[0030]
As shown in FIG. 3 (A), each of the self-sustained word and the kansei word has the above-described image features (luminance information and color information) and a shooting environment (a shooting target, a shooting location, a shooting target, The label of “season and weather at the time of shooting” is added, and can be specified based on the characteristics of the image and the shooting environment.
[0031]
That is, the knowledge DB 38 can be said to be a dictionary DB for acquiring phrases (including seasonal words) used in haiku.
[0032]
As shown in FIG. 3B, the haiku DB 40 records a plurality of text data of existing haikus, and each text data is divided according to a pattern of 5.7.5. Characters), information indicating the middle phrase (next 7 characters) and the lower phrase (last 5 characters) are added. The reason why the pattern is divided according to the pattern is to use it as a material for generating a haiku (haiku material). Such a haiku material is added or changed by the creator or designer of the haiku DB 40.
[0033]
The haiku DB 40 records a plurality of text data (seasonal data) corresponding to typical seasonal words. More specifically, as shown in FIG. 3B, a plurality of seasonal data is described for each season, divided into seasons (spring, summer, autumn, winter). That is, a seasonal word can be selected based on a season (month and day). However, the seasons are divided into details such as Miharu (Early Spring / Middle Spring / Late Spring), Mitsatsu (Early Summer / Midsummer / Late Summer), Miaki (Early Fall / Middle Autumn / Late Fall), and Miwate (Early Winter / Middle Winter / Late Winter). May be described.
[0034]
In the map DB 42, map data for a specific area (in this embodiment, all over Japan) is recorded, and a place (position) can be specified based on latitude and longitude or an address. In addition, a shooting target (an object on a map) can be estimated from the specified position (the shooting location in this embodiment) and the direction of the camera 12 at the time of shooting (azimuth information and tilt information described later). .
[0035]
FIG. 4 is a block diagram showing an electrical configuration of the camera 12. Referring to FIG. 4, the camera 12 includes a lens 50, and a light image of a subject incident from the lens 50 is electrically converted by a CCD imager 52. Converted to a signal. The CCD imager 52 has, for example, color filters in a primary color Bayer array, and outputs an electric signal (camera signal) of each pixel according to a progressive scan (pixel sequential scan) under the instruction of the CPU 70.
[0036]
The camera signal output from the CCD imager 52 is supplied to a CDS / AGC circuit 54. The CDS / AGC circuit 54 performs well-known noise removal and level adjustment on the camera signal from the CCD imager 52. The camera signal processed by the CDS / AGC circuit 54 is converted by an A / D converter 56 into digital data (camera data). The camera data output from the A / D converter 56 is supplied to a signal processing circuit 58.
[0037]
The signal processing circuit 58 performs processing such as color separation, white balance adjustment, and YUV conversion on the camera data supplied from the A / D converter 56 in accordance with a command signal from the CPU 70, and converts YUV data corresponding to the light image of the subject into image data. Generate. The generated YUV data is written by the memory control circuit 60 to a RAM 62 such as an SDRAM. On the other hand, the video encoder 64 requests the memory control circuit 60 to read the YUV data in response to the processing instruction from the CPU 70, and converts the YUV data read by the memory control circuit 60 into an NTSC composite image signal. . The converted composite image signal is provided to the monitor 66, and as a result, a real-time moving image (through image) of the subject is displayed on the monitor 66.
[0038]
In the photographing mode, when the user operates (turns on) a shutter button (not shown) provided on the operation panel 86 at a desired timing, a photographing instruction is given to the CPU 70 from a system controller (hereinafter simply referred to as “syscon”) 78. Can be Then, the CPU 70 executes a photographing process.
[0039]
The CPU 70 instructs a timing generator (TG) (not shown) to photograph a subject at an optimal shutter speed and to read out all photoelectrically converted pixel signals. Thus, a high-resolution camera signal corresponding to the still image at the time when the shutter button is turned on is output from the CCD imager 52. The output camera signal is subjected to the same processing as described above, and high-resolution YUV data is temporarily stored in the RAM 62.
[0040]
Subsequently, the CPU 70 gives a compression instruction to a compression / expansion circuit 72 such as a JPEG codec. The compression / expansion circuit 72 requests the memory control circuit 60 to read the YUV data in response to the compression instruction. The memory control circuit 60 reads out the YUV data stored in the RAM 62, that is, the still image data for one screen, and supplies it to the compression / expansion circuit 72. The compression / expansion circuit 72 compresses the still image data according to the JPEG format, and writes the compressed image data (compressed image data) to the flash memory 76 under the instruction of the CPU 70.
[0041]
In this embodiment, the compressed image data is recorded in the flash memory 76. However, the compressed image data may be recorded in a removable recording medium such as a memory card or an optical (magnetic) disk.
[0042]
Further, when an imaging instruction is given from the system controller 78, the CPU 70 instructs the system controller 78 to acquire imaging information. Here, the photographing information includes positional information (latitude and longitude in this embodiment) of the camera 12 at the time of photographing, information on the left-right (turning) direction of the camera 12 (lens 50) (azimuth information), and information on the up-down direction of the camera 12. The information includes information on the direction (tilt) (tilt information), information on the temperature at the time of shooting (temperature information), information on the humidity at the time of shooting (humidity information), and date and time information indicating the date and time of shooting.
[0043]
That is, in the shooting mode, the CPU 70 executes the above-described shooting process in response to the shooting instruction, and instructs the system controller 78 to obtain shooting information. In response, the system controller 78 detects the outputs of the GPS 80 (including the antenna), the azimuth sensor 82, the tilt sensor 84, the temperature sensor 88, the humidity sensor 90, and the clock circuit 92. Data (photographing information data) is obtained and given to the CPU 70.
[0044]
In this embodiment, the photographing information data provided to the CPU 70 is text data.
[0045]
The CPU 70 records the photographing information data given from the system controller 78 in the EEPROM 68 in association with the compressed image data recorded in the flash memory 76. In other words, the compressed image data and the associated shooting information data can be managed with the same file name and different extensions. For example, the compressed image data can be managed by giving a file name such as “FILE01.jpg” and the associated shooting information data with a file name such as “FILE01.txt”.
[0046]
Furthermore, information on the weather at the time of shooting at the shooting location (weather information) can be added as the shooting information. For example, the user can input (add) weather information by operating the operation panel 86.
[0047]
In the playback mode, a thumbnail image or a file name of the compressed image data is displayed on the monitor 66, and the user operates a cursor key (not shown) provided on the operation panel 86 to select a desired image. Can be. When a desired image (thumbnail image or file name) is selected and a play button (not shown) provided on the operation panel 86 is operated, a reproduction instruction for the desired image is given from the system controller 78 to the CPU 70, In response, the CPU 70 reads out the compressed image data corresponding to the selected image from the flash memory 76.
[0048]
Subsequently, the CPU 70 gives a decompression instruction to the compression / decompression circuit 72 and supplies the read compressed image data to the compression / decompression circuit 72. The compression / decompression circuit 72 performs a decompression process on the compressed image data according to the JPEG format, and gives a write instruction to the memory control circuit 60. Then, the image data subjected to the decompression processing is stored in the RAM 62 by the memory control circuit 60.
[0049]
Then, the CPU 70 gives a processing instruction to the video encoder 64. In response, the video encoder 64 requests the memory control circuit 60 to read the YUV data, and converts the YUV data read by the memory control circuit 60 into an NTSC composite image signal. The converted composite image signal is provided to the monitor 66, and the selected desired photographed image (still image) is displayed on the monitor 66.
[0050]
Further, in the transfer mode, the thumbnail image or the file name of the compressed image data is displayed on the monitor 66 as in the case of the reproduction, and a desired image can be selected. Further, the user can operate the operation panel 86 to input personal information. In this embodiment, for example, a user ID included in the user information as described above is input.
[0051]
Subsequently, when a transfer button (not shown) provided on the operation panel 86 is operated, the system controller 78 inputs a transfer instruction to the CPU 70. In response to this, the CPU 70 sets the previously input user ID, the compressed image data corresponding to the selected image, and the shooting information data related to the compressed image data as a set of transfer data via the interface 74. To transfer. The transfer data is transferred to the haiku generator 30 (computer 32) via the communication device 14, the network 16, and the communication device 18, as shown in FIG.
[0052]
Each of the shooting mode, the reproduction mode, and the transfer mode is set by operating a mode selection button (not shown) provided on the operation panel 86.
[0053]
Specifically, the CPU 70 of the camera 12 performs processing according to the flowchart shown in FIG. As shown in FIG. 5, when the main power supply of the camera 12 is turned on, the CPU 70 starts processing, and determines whether or not the camera is in a shooting mode in step S1. If “NO” in the step S1, that is, if the mode is not the shooting mode, the process directly proceeds to a step S11. On the other hand, if “YES” in the step S1, that is, if it is the shooting mode, it is determined whether or not the shutter button is turned on in a step S3.
[0054]
If “NO” in the step S3, that is, if the shutter button is not turned on, the process returns to the same step S3 as it is. On the other hand, if “YES” in the step S3, that is, if the shutter button is turned on, the photographing process as described above is executed in a step S5 in response to this.
[0055]
Next, in step S7, photographing information data is obtained. That is, it instructs the system controller 78 to acquire the photographing information. Then, as described above, the system controller 78 detects the outputs of the GPS 80, the azimuth sensor 82, the inclination sensor 84, the temperature sensor 88, the humidity sensor 90, and the clock circuit 92, and obtains position information (longitude, latitude), The azimuth information of the camera 12 (lens 50), the inclination information of the camera 12 (lens 50), the temperature, the humidity, and the date and time are acquired. Then, in step S9, the acquired photographing information data is recorded in the EEPROM 68 in association with the compressed image data of the photographed image, and the process ends.
[0056]
In step S11, it is determined whether the mode is the transfer mode. If “NO” in the step S11, that is, if the mode is not the transfer mode, the process directly proceeds to a step S21. On the other hand, if “YES” in the step S11, that is, if it is the transfer mode, it is determined whether or not an image is selected in a step S13. If “NO” in the step S13, that is, if the image to be transferred is not selected, the process returns to the same step S13 as it is.
[0057]
On the other hand, if “YES” in the step S13, that is, if an image to be transferred is selected, it is determined whether or not a user ID (user information) is input in a step S15. If “NO” in the step S15, that is, if the user ID is not input, the process returns to the same step S15 as it is. On the other hand, if “YES” in the step S15, that is, if the user ID is input, it is determined whether or not the transfer button is turned on in a step S17.
[0058]
If “NO” in the step S17, that is, if the transfer button is not turned on, the process returns to the step S17 and waits until the transfer button is turned on. On the other hand, if “YES” in the step S17, that is, if the transfer button is turned on, in a step S19, the compressed image data corresponding to the selected image is read out from the flash memory 76 and associated with the compressed image data. The photographing information data to be recorded is read out from the EEPROM 68, and transferred to the haiku generator 30 via the network 16 together with the previously input user ID, and the process is terminated. That is, the transfer data is transferred to the computer 32.
[0059]
In step S21, it is determined whether the mode is the reproduction mode. If “NO” in the step S21, that is, if it is not the reproduction mode, the process returns to the step S1 as it is. On the other hand, if “YES” in the step S21, that is, if it is the reproduction mode, it is determined whether or not an image is selected in a step S23. If “NO” in the step S23, that is, if the image to be reproduced is not selected, the process returns to the same step S23 as it is. On the other hand, if “YES” in the step S23, that is, if an image to be reproduced is selected, in the step S25, the above-described reproducing process is performed on the selected image, and the process ends.
[0060]
On the other hand, the computer 32 included in the haiku generating device 30 executes the haiku generating process according to the flowcharts shown in FIGS. As shown in FIG. 6, when starting the haiku generation process, the computer 32 determines whether or not data, that is, transfer data (user ID, compressed image data, and photographing information data) has been received in step S31. If “NO” in the step S31, that is, if the transfer data is not received, the process returns to the same step S31 as it is.
[0061]
On the other hand, if “YES” in the step S31, that is, if the transfer data is received, the user information is read in a step S33. Specifically, the user information recorded in the user information DB 34 is read with reference to the user ID included in the transfer data. In a succeeding step S35, the received image data is analyzed. That is, the received compressed image data is expanded according to the JPEG format, and the luminance distribution and the saturation distribution of the image (captured image) are analyzed.
[0062]
Then, in step S37, the features of the image are extracted. That is, the similarity to the image data recorded in the image DB 36 is calculated from the analysis result (luminance distribution, saturation distribution) of the captured image, and the matching or the closest image data is specified from the calculation result, and the specified image data is specified. The composition information and the object information described in the label of the image data are acquired.
[0063]
Subsequently, in step S39, a shooting environment is created from the shooting information data. Here, the shooting environment refers to a shooting location, a shooting target, a season at the time of shooting, and weather (including temperature and humidity). Specifically, first, the position information (latitude and longitude) included in the shooting information data is input to the map DB 42, and the position of the camera 12 (shooting location) is specified. Next, when the azimuth information and the tilt information included in the shooting information data are input to the map DB 42, an object on the map (a shooting target) is estimated based on the shooting location, the direction information, and the tilt information specified earlier. . Next, the season is estimated from the date and time information included in the shooting information data and the specified shooting location. Further, the season is determined from the temperature information and the humidity information included in the photographing information data. At this time, a seasonal word corresponding to the determined season is acquired from the haiku DB 40.
[0064]
As described above, when the weather information is included in the shooting information, the weather at the time of shooting can be further added to the shooting environment information. Alternatively, it is also possible to acquire weather information provided on the Internet based on a shooting location and a shooting date and time.
[0065]
In the next step S41, the image capturing environment is integrated by matching the image data with the image capturing information data. Specifically, the imaging target specified by the composition information and the object information acquired in step S37 is integrated with the imaging target specified by the imaging location, azimuth information, and tilt information included in the imaging information data. For example, when the shooting target is specified as “mountain” from the composition information and the object information based on the image data, the shooting target estimated (specified) from the shooting location, the azimuth information, and the inclination information included in the shooting information data. In the case of “temple”, the shooting target specified from the image data does not match the shooting target specified from the shooting information data, so the shooting target is excluded from the shooting environment. Further, when the shooting target estimated from the shooting information data is “lakeside”, the shooting target specified from the image data does not match the shooting target specified from the shooting information data. In addition, the shooting target of the shooting environment can be determined as “mountain” and “lakeside”. In other words, when the shooting target is verified from different aspects of the image data and the shooting information data, the mismatching information is deleted or complemented with each other to achieve matching (optimization) of the shooting environment. It is.
[0066]
In such optimization, information that does not match is deleted or complemented with each other, but this is performed according to a rule determined in advance by a developer or a designer.
[0067]
In a succeeding step S43, an independent word and a feeling word are selected based on the user information, the feature of the image, and the photographing environment. That is, an independent word and a kansei word are selected from the knowledge DB 38 based on the characteristics of the image and the shooting environment, and the user's gender, age, favorite haiku type, etc. are selected from the selected independent word and the kansei word based on the user information. Independent words and sentiment words that match are selected.
[0068]
At this time, the names (independent words) of the objects included in the tourist information and the history information are also acquired based on the seasonal words acquired from the shooting environment.
[0069]
Then, in step S45, a haiku material is obtained. That is, a haiku material that includes a seasonal word acquired in step S39 or an independent word and a kansei word selected (selected) in step S43, or includes a word that is similar to (or similar to) the independent word or kansei word, that is, an upper phrase (5 characters) , The middle phrase (7 characters) and the lower phrase (5 characters) are acquired from the haiku DB 40.
[0070]
For example, in this embodiment, when the haiku material (phrase) is acquired based on the selected independent word or kansei word, the haiku material or kansei word is included in all the phrases recorded in the haiku DB 40. A score of the degree of similarity with the phrase is calculated, and a phrase including the phrase having a certain score or more is obtained. Here, the similarity refers to the degree to which the meanings of words and phrases are similar.
[0071]
Subsequently, in step S47, a haiku text that satisfies the restrictions on the haiku composition is generated according to a procedure described later in detail. In brief, the haiku text data (haiku text) is created by combining the phrases acquired in step S45 so as to follow the patterns 5, 7, and 5 and to include the seasonal word in any one of the phrases.
[0072]
In step S49 shown in FIG. 7, the generated first haiku is compared with the existing haiku. That is, one haiku is selected from the generated haikus and compared with the haiku recorded in the haiku DB 40. In a succeeding step S51, it is determined whether or not both are the same (match).
[0073]
If “NO” in the step S51, that is, if they do not match, the process directly proceeds to a step S55. On the other hand, if “YES” in the step S51, that is, if they match, in a step S53, the generated haiku is deleted, and the process proceeds to the step S55.
[0074]
In the step S55, it is determined whether or not the next haiku exists. If “YES” in the step S55, that is, if there is a next haiku, the next haiku is compared with the existing haiku in a step S57, and the process returns to the step S51. On the other hand, if “NO” in the step S55, that is, if there is no next haiku, the haiku is presented in the order of the score in a step S59, and the process is ended. That is, the generated haiku text data is transmitted to the camera 12 via the network 16.
[0075]
However, the generated haikus may be transmitted one by one in the score order, or all the haikus generated by attaching the numbers according to the score order to each haiku may be transmitted together.
[0076]
The text data of the haiku sent to the camera 12 is given to the CPU 70 via the interface 74, and is recorded in the EEPROM 68 from the CPU 70. Thereafter, when the user operates the operation panel 86 to input a haiku output instruction, the system controller 78 gives the haiku output instruction to the CPU 70. In response, the CPU 70 reads the text data of the haiku recorded in the EEPROM 68 and gives a processing instruction to the video encoder 64. Then, for example, a screen in which the haiku text is described on the blue-back screen is displayed on the monitor 66.
[0077]
However, instead of the blue background screen, the image from which the haiku was generated may be displayed on the monitor 66, and the image of the haiku may be overwritten on the image.
[0078]
When the process of generating a haiku text is started in step S47 in FIG. 6, as shown in FIG. 8, the computer 32 extracts a phrase candidate that can be an upper phrase from the haiku material extracted from the haiku DB 40 in step S71. In a succeeding step S73, the extracted upper phrase candidates are arranged in the order of score. That is, they are arranged in the order of the score of the degree of similarity to the independent word or the kansei word.
[0079]
Subsequently, in step S75, middle phrase candidates are extracted in descending order of similarity score. Then, in a step S77, a combination of the upper phrase and the middle phrase is generated. For example, in this embodiment, the upper phrase and the middle phrase are respectively combined in descending order of the similarity score. That is, the upper phrase candidate and the middle phrase candidate are combined like the first upper phrase and the first middle phrase, the second upper phrase and the second middle phrase, and so on. At this time, the upper and middle phrases are combined in this order.
[0080]
Then, in a step S79, the combinations of the upper phrase and the middle phrase are arranged in the order of score. However, here, a score (first score) obtained by adding the score of the similarity for each of the upper and middle phrases and a score (second connectivity) of the combination of the upper and middle phrases (good connectivity) The score (third score) is calculated by adding the upper phrase and the middle phrase in descending order of the third score.
[0081]
The second score is determined based on, for example, goodness of the connection between the meaning of the upper phrase and the middle phrase and the connection of the context, or whether or not the character includes a favorite character described in the user information (preference information). And is calculated according to a rule determined in advance by a developer or a designer.
[0082]
Next, in step S81, lower phrase candidates are extracted in descending order of the similarity score. Then, in step S83, a combination of an upper phrase, a middle phrase, and a lower phrase is generated. For example, in this embodiment, similar to the case where the upper phrase and the middle phrase are combined, the combination of the upper phrase and the middle phrase arranged in the descending order of the third score is displayed in the descending order of the similarity score. Concatenate the following phrases. At this time, the lower phrase is connected after the upper phrase / medium phrase.
[0083]
Then, in step S85, the combinations of the upper phrase, the middle phrase, and the lower phrase are arranged in the order of score. Here, a score (fourth score) obtained by adding the score of the similarity for each of the upper phrase, the middle phrase, and the lower phrase, and a score (second score) expressed by good connectivity between the upper phrase and the middle phrase, and the like. The score (sixth score) is calculated by adding the score (score) and the score (fifth score) represented by the good connectivity between the middle phrase and the lower phrase, and the upper phrase is determined in the descending order of the sixth score. A combination of a middle phrase and a lower phrase, that is, a plurality of haiku texts are arranged.
[0084]
When calculating the fifth score, as in the case of the second score, it is considered whether or not to include a favorite cut character described in the preference information.
[0085]
Finally, in step S87, the haiku text including two or more seasonal words is deleted from the generated haiku text, and the process of generating the haiku text is returned. Therefore, only the haiku text that satisfies the above-described haiku composition restrictions is generated.
[0086]
In this way, a plurality of haiku texts are generated. The combination of upper and middle phrases is reduced based on whether the third score is equal to or higher than a certain score, or based on whether the sixth score is equal to or higher than a certain score. It is also possible to reduce the generated haiku text. In addition, after a plurality of haiku texts are generated, the number of haiku texts may be adjusted by reducing the haiku texts having a low sixth score.
[0087]
According to this embodiment, a seasonal word or phrase used in a haiku is selected based on the characteristics of the image and the photographing information, and a haiku is created using a phrase including the seasonal word or phrase. Can be generated. That is, it is possible to generate a text having a content different from the content indicated by the information from multimedia information such as an image.
[0088]
In this embodiment, the haiku generation process is executed with the input of the transfer data as a trigger. However, the seasonal word determined (specified) after the acquisition of the transfer data is presented to the user, and the user is allowed to select the seasonal word. Then, the operation of the selection may be triggered by the operation of the haiku generation process.
[0089]
Further, in this embodiment, in order to simplify the operation of the user, the user information DB is provided, and the user information is read from the user information DB. Can be entered each time. In such a case, a haiku according to the user's preference at that time can be generated.
[0090]
Furthermore, in this embodiment, the camera 12 and the haiku generator 30 (computer 32) are connected via the network 16, but may be connected using a cable such as a USB cable. In this case, the haiku can be easily enjoyed not only when it is located in a remote place but also when it is located near the haiku generator.
[0091]
A haiku generator 30 according to another embodiment of the present invention is the same as the above-mentioned embodiment except that the transfer data (user ID, compressed image data, and photographing information data) are directly input to the computer 32. Therefore, duplicate description will be omitted.
[0092]
In the haiku generation device 30 of this other embodiment, the camera 12 and the computer 32 are connected by, for example, a USB cable (not shown), and the compressed image data is input (transferred) from the camera 12 to the computer 32. Shooting information is separately input. That is, the camera 12 shown in FIGS. 1 and 4 only needs to have at least the photographing function, and a general-purpose digital camera can be used.
[0093]
When the user inputs the compressed image data to the computer 32, a shooting information input screen as shown in FIG. 9 is displayed on a monitor (not shown) connected to the computer 32. On the shooting information input screen, an image based on the compressed image data input to the computer 32 by the user is displayed, and a column for inputting each of the shooting information is displayed. In addition, an "OK" button and a "Cancel" button are displayed below the photographing information input field.
[0094]
Note that, for convenience of the drawing, the photographing information is described so that only the positional information (photographing place), the photographing date and time, and the weather can be input. However, all the photographing information shown in the above-described embodiment can be input. it can.
[0095]
Further, on this shooting information input screen, a user ID can be input in other fields.
[0096]
The user can input shooting information and a user ID of an image displayed on the shooting information input screen using the input device. When the photographing information and the user ID are input on this photographing information input screen and the "OK" button is turned on, the computer 32 executes the haiku generation processing as described in the above embodiment. That is, in the above-described embodiment, the haiku generation process is executed by receiving the transfer data as a trigger, but in other embodiments, the haiku generation process is executed by turning on the “OK” button as a trigger. However, in order to stop the haiku generation (input), the user may turn on the “cancel” button.
[0097]
According to the other embodiment, since the transfer data is directly input, there is no need to provide a plurality of sensors or the like in the camera, and a system that is less expensive than the above embodiment can be provided.
[0098]
Note that user information such as profile information can also be input by providing an input screen similar to that of shooting information.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing one example of a configuration of a haiku generation system of the present invention;
FIG. 2 is an illustrative view showing contents of a user information DB and an image DB shown in FIG. 1 embodiment;
FIG. 3 is an illustrative view showing contents of a knowledge DB and a haiku DB shown in the embodiment in FIG. 1;
FIG. 4 is a block diagram showing a specific configuration of the camera shown in FIG. 1 embodiment.
FIG. 5 is a flowchart showing the overall processing of the CPU of the camera shown in FIG. 1 embodiment.
FIG. 6 is a flowchart showing a part of a haiku generation process of a computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 7 is a flowchart showing another part of the haiku generation process of the computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 8 is a flowchart showing a haiku text generation process of a computer of the haiku generation device shown in FIG. 1 embodiment.
FIG. 9 is an illustrative view showing one example of a photographing information input screen displayed on a screen in another embodiment of the present invention;
[Explanation of symbols]
10 Haiku generation system
12 Camera
14, 18 ... communication device
16… Network
30… Haiku generator
32… Computer
34, 36, 38, 40, 42 ... DB
52… CCD imager
58… Signal processing circuit
64… Video encoder
66… Monitor
70 ... CPU
74… Interface
78… System controller
80 ... GPS
82… bearing sensor
84… Tilt sensor
86… Operation panel
88… Temperature sensor
90 ... humidity sensor
92 Clock circuit

Claims (14)

通信機能を備えるカメラと俳句生成装置とを通信網を介して接続した俳句生成システムであって、
前記カメラは、
所望の画像を撮影する撮影手段、
少なくとも前記画像の撮影場所を特定する位置情報を含む撮影情報を取得する撮影情報取得手段、および
前記画像および前記撮影情報を前記通信網を介して前記俳句生成装置に送信する送信手段を備え、
前記俳句生成装置は、
前記送信手段によって送信された画像および撮影情報を受信する受信手段、
前記受信手段によって受信された前記画像を解析する解析手段、
前記解析手段の解析結果から前記画像の特徴を抽出する抽出手段、
前記抽出手段によって抽出された前記画像の特徴および前記受信手段によって受信された前記撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および
前記取出手段によって取り出された前記俳句素材を用いて俳句を生成する生成手段を備える、俳句生成システム。
A haiku generation system in which a camera having a communication function and a haiku generation device are connected via a communication network,
The camera is
Photographing means for photographing a desired image,
A photographing information acquiring unit for acquiring photographing information including position information specifying at least a photographing place of the image, and a transmitting unit for transmitting the image and the photographing information to the haiku generating device via the communication network,
The haiku generator,
Receiving means for receiving the image and the photographing information transmitted by the transmitting means,
Analyzing means for analyzing the image received by the receiving means,
Extracting means for extracting features of the image from the analysis result of the analyzing means,
Using the haiku material extracted from the haiku material database based on the characteristics of the image extracted by the extracting device and the photographing information received by the receiving device, and the haiku material extracted by the extracting device A haiku generation system comprising a generation unit for generating a haiku.
前記撮影情報は前記画像の撮影時における撮影方向情報をさらに含み、
前記カメラは、前記画像の撮影時における撮影方向情報を取得する方向取得手段をさらに備え、
前記俳句生成装置は、前記撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する推定手段、前記画像の特徴から撮影対象を特定する特定手段、前記推定手段によって推定される撮影対象と前記特定手段によって特定される撮影対象とを統合する統合手段をさらに備える、請求項1記載の俳句生成システム。
The shooting information further includes shooting direction information at the time of shooting the image,
The camera further includes a direction obtaining unit that obtains shooting direction information at the time of shooting the image,
The haiku generation device includes: an estimating unit that estimates an imaging target based on position information and imaging direction information included in the imaging information; an identification unit that identifies an imaging target from characteristics of the image; and an imaging unit that is estimated by the estimation unit. The haiku generation system according to claim 1, further comprising an integrating unit configured to integrate the target and the imaging target specified by the specifying unit.
前記俳句生成装置は、輝度情報、色情報、構図情報および対象物情報を含む付加情報をそれぞれ付加した複数の静止画像を記録する画像データベースをさらに備え、
前記解析手段は、前記画像の輝度情報および色情報を解析し、
前記抽出手段は、前記解析手段の解析結果から得られる輝度情報および色情報と、前記付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出し、
前記特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて前記画像の撮影対象を特定する、請求項2記載の俳句生成システム。
The haiku generating device further includes an image database that records a plurality of still images to which additional information including luminance information, color information, composition information, and object information are added,
The analysis means analyzes luminance information and color information of the image,
The extracting means determines the similarity between the luminance information and the color information obtained from the analysis result of the analyzing means and the luminance information and the color information included in the additional information, and is included in the additional information having the maximum similarity. Extract composition information and object information,
The haiku generation system according to claim 2, wherein the specifying unit specifies a shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
前記撮影情報は撮影日時を示す日時情報をさらに含み、
前記カメラは、前記画像の撮影日時を取得するための時計回路をさらに備え、
前記俳句生成装置は、少なくとも前記日時情報から特定される季節に対応する季語を決定する第1決定手段、前記画像の特徴および前記撮影情報の少なくとも一方に基づいて俳句に使用する語句を決定する第2決定手段、および前記第1決定手段によって決定される季語および前記第2決定手段で決定される語句の少なくとも一方を含む俳句素材を前記俳句素材データベースから選択する選択手段をさらに備える、請求項1ないし3のいずれかに記載の俳句生成システム。
The shooting information further includes date and time information indicating a shooting date and time,
The camera further includes a clock circuit for acquiring the shooting date and time of the image,
The haiku generating device is a first determining unit that determines a seasonal word corresponding to a season specified from at least the date and time information, and a haiku generating unit that determines a phrase to be used in a haiku based on at least one of the characteristics of the image and the shooting information. 2. A haiku material including at least one of a seasonal word determined by the first determining device and a phrase determined by the second determining device, and a selecting device for selecting a haiku material from the haiku material database. 4. The haiku generation system according to any one of claims 1 to 3.
前記俳句生成装置は、少なくともユーザの好みを示す情報を含むユーザ情報を記録するユーザ情報データベースをさらに備え、
前記第1決定手段は、前記日時情報と前記ユーザ情報とから前記季語を決定する、請求項4記載の俳句生成システム。
The haiku generation device further includes a user information database that records user information including at least information indicating user preference,
The haiku generation system according to claim 4, wherein the first determining means determines the seasonal word from the date and time information and the user information.
前記生成手段は、前記取出手段によって取り出された前記俳句素材を俳句構成の規則を満たして組み合わせる組み合わせ手段を含む、請求項1ないし5のいずれかに記載の俳句生成システム。The haiku generation system according to any one of claims 1 to 5, wherein the generation unit includes a combination unit that combines the haiku materials extracted by the extraction unit while satisfying a rule of a haiku composition. 前記生成手段によって生成された俳句が既存の俳句と一致するかどうかを判断する判断手段、および前記判断手段の判断結果が一致を示す俳句を削除する削除手段をさらに備える、請求項1ないし6のいずれかに記載の俳句生成システム。7. The method according to claim 1, further comprising determining means for determining whether the haiku generated by said generating means matches an existing haiku, and deleting means for deleting a haiku whose determination result indicates a match. Haiku generation system described in any of them. カメラで撮影した画像に基づいて俳句を生成する俳句生成装置であって、
前記画像および撮影情報を入力する入力手段、
前記入力手段によって入力された前記画像を解析する解析手段、
前記解析手段の解析結果から前記画像の特徴を抽出する抽出手段、
前記抽出手段によって抽出された前記画像の特徴および前記撮影情報に基づいて俳句素材データベースから俳句素材を取り出す取出手段、および
前記取出手段によって取り出された前記俳句素材を用いて俳句を生成する生成手段を備える、俳句生成装置。
A haiku generator that generates a haiku based on an image taken by a camera,
Input means for inputting the image and shooting information,
Analysis means for analyzing the image input by the input means,
Extracting means for extracting features of the image from the analysis result of the analyzing means,
Extracting means for extracting a haiku material from a haiku material database based on the characteristics of the image and the photographing information extracted by the extracting means, and generating means for generating a haiku using the haiku material extracted by the extracting means. Equipped with a haiku generator.
前記撮影情報は前記画像の撮影時における撮影方向情報をさらに含み、
前記撮影情報に含まれる位置情報および撮影方向情報に基づいて撮影対象を推定する推定手段、前記画像の特徴から撮影対象を特定する特定手段、前記推定手段によって推定される撮影対象と前記特定手段によって特定される撮影対象とを統合する統合手段をさらに備える、請求項8記載の俳句生成装置。
The shooting information further includes shooting direction information at the time of shooting the image,
Estimating means for estimating a shooting target based on position information and shooting direction information included in the shooting information, specifying means for specifying a shooting target from the characteristics of the image, and a shooting target estimated by the estimating means and the specifying means 9. The haiku generation device according to claim 8, further comprising an integration unit configured to integrate the specified shooting target.
輝度情報、色情報、構図情報および対象物情報を含む付加情報をそれぞれ付加した複数の静止画像を記録する画像データベースをさらに備え、
前記解析手段は、前記画像の輝度情報および色情報を解析し、
前記抽出手段は、前記解析手段の解析結果から得られる輝度情報および色情報と、前記付加情報に含まれる輝度情報および色情報とを類比判断して、類似度が最大となる付加情報に含まれる構図情報および対象物情報を抽出し、
前記特定手段は、抽出手段によって抽出された構図情報および対象物情報の少なくとも一方に基づいて前記画像の撮影対象を特定する、請求項9記載の俳句生成装置。
Further comprising an image database for recording a plurality of still images to which additional information including luminance information, color information, composition information and object information are added,
The analysis means analyzes luminance information and color information of the image,
The extracting means determines the similarity between the luminance information and the color information obtained from the analysis result of the analyzing means and the luminance information and the color information included in the additional information, and is included in the additional information having the maximum similarity. Extract composition information and object information,
10. The haiku generation device according to claim 9, wherein the specifying unit specifies a shooting target of the image based on at least one of the composition information and the object information extracted by the extracting unit.
前記撮影情報は撮影日時を示す日時情報をさらに含み、
少なくとも前記日時情報から特定される季節に対応する季語を決定する第1決定手段、前記画像の特徴および前記撮影情報の少なくとも一方に基づいて俳句に使用する語句を決定する第2決定手段、および前記第1決定手段によって決定される季語および前記第2決定手段で決定される語句の少なくとも一方を含む俳句素材を前記俳句素材データベースから選択する選択手段をさらに備える、請求項8ないし10のいずれかに記載の俳句生成装置。
The shooting information further includes date and time information indicating a shooting date and time,
First determining means for determining a seasonal word corresponding to a season specified from at least the date and time information, second determining means for determining a phrase used in a haiku based on at least one of the characteristics of the image and the photographing information, and 11. The haiku material database according to claim 8, further comprising a selecting device for selecting a haiku material including at least one of a seasonal word determined by the first determining device and a phrase determined by the second determining device from the haiku material database. Haiku generator described.
少なくともユーザの好みを示す情報を含むユーザ情報を記録するユーザ情報データベースをさらに備え、
前記第1決定手段は、前記日時情報と前記ユーザ情報とから前記季語を決定する、請求項11記載の俳句生成装置。
Further comprising a user information database that records user information including at least information indicating user preference,
The haiku generating device according to claim 11, wherein the first determining means determines the seasonal word from the date and time information and the user information.
前記生成手段は、前記取出手段によって取り出された前記俳句素材を俳句構成の規則を満たして組み合わせる組み合わせ手段を含む、請求項8ないし12のいずれかに記載の俳句生成装置。13. The haiku generation device according to claim 8, wherein the generation unit includes a combination unit that combines the haiku materials extracted by the extraction unit while satisfying rules of a haiku composition. 前記生成手段によって生成された俳句が既存の俳句と一致するかどうかを判断する判断手段、および前記判断手段の判断結果が一致を示す俳句を削除する削除手段をさらに備える、請求項8ないし13のいずれかに記載の俳句生成装置。14. The method according to claim 8, further comprising determining means for determining whether the haiku generated by the generating means matches an existing haiku, and deleting means for deleting a haiku whose determination result indicates a match. A haiku generator according to any of the above.
JP2002298191A 2002-10-11 2002-10-11 System and device for creating haiku (seventeen-syllabled poem) Pending JP2004133721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002298191A JP2004133721A (en) 2002-10-11 2002-10-11 System and device for creating haiku (seventeen-syllabled poem)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002298191A JP2004133721A (en) 2002-10-11 2002-10-11 System and device for creating haiku (seventeen-syllabled poem)

Publications (1)

Publication Number Publication Date
JP2004133721A true JP2004133721A (en) 2004-04-30

Family

ID=32287682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002298191A Pending JP2004133721A (en) 2002-10-11 2002-10-11 System and device for creating haiku (seventeen-syllabled poem)

Country Status (1)

Country Link
JP (1) JP2004133721A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019159780A (en) * 2018-03-13 2019-09-19 富士通株式会社 Determination program, determination device, and determination method
JP2020095615A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Generator, method for generation, and generating program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019159780A (en) * 2018-03-13 2019-09-19 富士通株式会社 Determination program, determination device, and determination method
JP7095322B2 (en) 2018-03-13 2022-07-05 富士通株式会社 Judgment program, judgment device, and judgment method
JP2020095615A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Generator, method for generation, and generating program
JP7315321B2 (en) 2018-12-14 2023-07-26 ヤフー株式会社 Generation device, generation method and generation program

Similar Documents

Publication Publication Date Title
US9317531B2 (en) Autocaptioning of images
US8295650B2 (en) Information processing apparatus and method, and program
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
JP5371489B2 (en) Image management apparatus, control method therefor, program, and storage medium
US7672977B2 (en) Image reproducing apparatus, method of controlling same and control program therefor
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP2007027945A (en) Photographing information presenting system
JP5478999B2 (en) Imaging device
US20050267749A1 (en) Information processing apparatus and information processing method
JP2007081681A (en) Image pickup device and method therefor
JP4279083B2 (en) Image processing method and apparatus, and image processing program
JP2007266902A (en) Camera
JP2007164269A (en) Retrieval device, retrieval/reproducing device, and image reproducing device
JP2012084052A (en) Imaging apparatus, control method and program
JP4889554B2 (en) Camera, content creation method, and program
JP4054167B2 (en) Imaging device
JP2004133721A (en) System and device for creating haiku (seventeen-syllabled poem)
JP2007156729A (en) Retrieval device and retrieval method and camera having retrieval device
US20130106688A1 (en) Image information processing apparatus
US11283945B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2014115388A (en) Information processor, information processing system, control method, and program
JP2008102845A (en) Information processing apparatus, method, and program
US8934738B2 (en) Image processing apparatus and method for controlling the same
EP4184910A1 (en) Information processing device, information processing method, and program
JP2007288409A (en) Imaging apparatus with image data classifying function and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070123