2016-07-09

NLTKのFreqDistオブジェクトのkeys()メソッドで頻出単語がソートされない

オライリーの入門自然言語処理のP.19で文章の中からもっとも頻出する50の単語を取り出すコードが記載されているけど、なぜかうまくソートされない。

調べてみるとNLTK3では頻出順にソートされなくなったようで、同じことをしたければmost_common()メソッドを使わなければならない。


    fdist1 = FreqDist(text1)
    vocaburary1 = fdist1.keys()
    print vocabulary1[:50]

オライリーのサンプルコードは上のようになっているけど、これだと頻出単語順にソートされていない。

mosot_common()を使って以下のように変更する。


    fdist1 = FreqDist(text1)
    print fdist1.most_common(50)

するとうまく頻出単語順にソートされて表示される。


[(u',', 18713), (u'the', 13721), (u'.', 6862), (u'of', 6536), (u'and', 6024), (u'a', 4569), (u'to', 4542), (u';', 4072), (u'in', 3916), (u'that', 2982), (u"'", 2684), (u'-', 2552), (u'his', 2459), (u'it', 2209), (u'I', 2124), (u's', 1739), (u'is', 1695), (u'he', 1661), (u'with', 1659), (u'was', 1632), (u'as', 1620), (u'"', 1478), (u'all', 1462), (u'for', 1414), (u'this', 1280), (u'!', 1269), (u'at', 1231), (u'by', 1137), (u'but', 1113), (u'not', 1103), (u'--', 1070), (u'him', 1058), (u'from', 1052), (u'be', 1030), (u'on', 1005), (u'so', 918), (u'whale', 906), (u'one', 889), (u'you', 841), (u'had', 767), (u'have', 760), (u'there', 715), (u'But', 705), (u'or', 697), (u'were', 680), (u'now', 646), (u'which', 640), (u'?', 637), (u'me', 627), (u'like', 624)]

NLTKは3になってから結構いろいろ変更があるみたいなのでその都度調べながらやらないといけないようです。

0 件のコメント:

コメントを投稿