import  pandas 
as  pd
import  jieba
 
數據源:http://www.sogou.com/labs/resource/ca.php  
 
df_news 
=  pd
. read_table
( './data/val.txt' , names
= [ 'category' , 'theme' , 'URL' , 'content' ] , encoding
= 'utf-8' ) 
df_news 
=  df_news
. dropna
( ) 
df_news
. head
( ) 
 
 
 
categorythemeURLcontent 0汽車 新輝騰 4.2 V8 4座加長Individual版2011款 最新報價 http://auto.data.people.com.cn/model_15782/ 經銷商 電話 試駕/訂車U憬杭州濱江區江陵路1780號4008-112233轉5864#保常...  1汽車 918 Spyder概念車 http://auto.data.people.com.cn/prdview_165423.... 呼叫熱線 4008-100-300 服務郵箱 kf@peopledaily.com.cn  2汽車 日內瓦亮相 MINI性能版/概念車-1.6T引擎 http://auto.data.people.com.cn/news/story_5249... MINI品牌在二月曾經公布了最新的MINI新概念車Clubvan效果圖,不過現在在日內瓦車展...  3汽車 清倉大甩賣一汽夏利N5威志V2低至3.39萬 http://auto.data.people.com.cn/news/story_6144... 清倉大甩賣!一汽夏利N5、威志V2低至3.39萬=日,啟新中國一汽強勢推出一汽夏利N5、威志...  4汽車 大眾敞篷家族新成員 高爾夫敞篷版實拍 http://auto.data.people.com.cn/news/story_5686... 在今年3月的日內瓦車展上,我們見到了高爾夫家族的新成員,高爾夫敞篷版,這款全新敞篷車受到了眾...  
 
df_news
. shape
 
(5000, 4)
 
分詞:使用結吧分詞器  
content 
=  df_news
. content
. values
. tolist
( ) 
print  ( content
[ 1000 ] ) 
 
阿里巴巴集團昨日宣布,將在集團管理層面設立首席數據官崗位(Chief Data Officer),阿里巴巴B2B公司CEO陸兆禧將會出任上述職務,向集團CEO馬云直接匯報。>菹ぃ和6月初的首席風險官職務任命相同,首席數據官亦為阿里巴巴集團在完成與雅虎股權談判,推進“one company”目標后,在集團決策層面新增的管理崗位。0⒗錛團昨日表示,“變成一家真正意義上的數據公司”已是戰略共識。記者劉夏
 
content_S 
=  [ ] 
for  line 
in  content
: current_segment 
=  jieba
. lcut
( line
) if  len ( current_segment
)  >  1  and  current_segment 
!=  '\r\n' :  content_S
. append
( current_segment
) 
 
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\YIUYE\AppData\Local\Temp\jieba.cache
Loading model cost 1.209 seconds.
Prefix dict has been built succesfully.
 
content_S
[ 1000 ] 
 
['阿里巴巴','集團','昨日','宣布',',','將','在','集團','管理','層面','設立','首席','C','記者','劉夏'等等]
 
df_content
= pd
. DataFrame
( { 'content_S' : content_S
} ) 
df_content
. head
( ) 
 
 
 
content_S 0[經銷商,  , 電話,  , 試駕, /, 訂車, U, 憬, 杭州, 濱江區, 江陵, ...  1[呼叫, 熱線,  , 4, 0, 0, 8, -, 1, 0, 0, -, 3, 0, 0...  2[M, I, N, I, 品牌, 在, 二月, 曾經, 公布, 了, 最新, 的, M, I...  3[清倉, 大, 甩賣, !, 一汽, 夏利, N, 5, 、, 威志, V, 2, 低至, ...  4[在, 今年, 3, 月, 的, 日內瓦, 車展, 上, ,, 我們, 見到, 了, 高爾夫...  
 
stopwords
= pd
. read_csv
( "stopwords.txt" , index_col
= False , sep
= "\t" , quoting
= 3 , names
= [ 'stopword' ] ,  encoding
= 'utf-8' ) 
stopwords
. head
( 20 ) 
 
 
 
stopword 0!  1"  2#  3$  4%  5&  6'  7(  8)  9*  10+  11,  12-  13--  14.  15..  16...  17......  18...................  19./  
 
def  drop_stopwords ( contents
, stopwords
) : contents_clean 
=  [ ] all_words 
=  [ ] for  line 
in  contents
: line_clean 
=  [ ] for  word 
in  line
: if  word 
in  stopwords
: continue line_clean
. append
( word
) all_words
. append
( str ( word
) ) contents_clean
. append
( line_clean
) return  contents_clean
, all_wordscontents 
=  df_content
. content_S
. values
. tolist
( )     
stopwords 
=  stopwords
. stopword
. values
. tolist
( ) 
contents_clean
, all_words 
=  drop_stopwords
( contents
, stopwords
) 
 
df_content
= pd
. DataFrame
( { 'contents_clean' : contents_clean
} ) 
df_content
. head
( ) 
 
 
 
contents_clean 0[經銷商, 電話, 試駕, 訂車, U, 憬, 杭州, 濱江區, 江陵, 路, 號, 轉, ...  1[呼叫, 熱線, 服務, 郵箱, k, f, p, e, o, p, l, e, d, a,...  2[M, I, N, I, 品牌, 二月, 公布, 最新, M, I, N, I, 新, 概念...  3[清倉, 甩賣, 一汽, 夏利, N, 威志, V, 低至, 萬, 啟新, 中國, 一汽, ...  4[日內瓦, 車展, 見到, 高爾夫, 家族, 新, 成員, 高爾夫, 敞篷版, 款, 全新,...  
 
df_all_words
= pd
. DataFrame
( { 'all_words' : all_words
} ) 
df_all_words
. head
( ) 
 
 
 
 
words_count
= df_all_words
. groupby
( by
= [ 'all_words' ] ) [ 'all_words' ] . agg
( { "count" : numpy
. size
} ) 
words_count
= words_count
. reset_index
( ) . sort_values
( by
= [ "count" ] , ascending
= False ) 
words_count
. head
( ) 
 
 
 
all_wordscount 4077中 5199  4209中國 3115  88255說 3055  104747S 2646  1373萬 2390  
 
from  wordcloud 
import  WordCloud
import  matplotlib
. pyplot 
as  plt
% matplotlib inline
import  matplotlib
matplotlib
. rcParams
[ 'figure.figsize' ]  =  ( 10.0 ,  5.0 ) wordcloud
= WordCloud
( font_path
= "./data/simhei.ttf" , background_color
= "white" , max_font_size
= 80 ) 
word_frequence 
=  { x
[ 0 ] : x
[ 1 ]  for  x 
in  words_count
. head
( 100 ) . values
} 
wordcloud
= wordcloud
. fit_words
( word_frequence
) 
plt
. imshow
( wordcloud
) 
 
<matplotlib.image.AxesImage at 0x186064c64e0>
 
 
TF-IDF :提取關鍵詞###  
import  jieba
. analyse
index 
=  2400 
print  ( df_news
[ 'content' ] [ index
] ) 
content_S_str 
=  "" . join
( content_S
[ index
] )   
print  ( "  " . join
( jieba
. analyse
. extract_tags
( content_S_str
,  topK
= 5 ,  withWeight
= False ) ) ) 
 
法國VS西班牙、里貝里VS哈維,北京時間6月24日凌晨一場的大戰舉世矚目,而這場勝利不僅僅關乎兩支頂級強隊的命運,同時也是他們背后的球衣贊助商耐克和阿迪達斯之間的一次角逐。T諶胙”窘炫分薇的16支球隊之中,阿迪達斯和耐克的勢力范圍也是幾乎旗鼓相當:其中有5家球衣由耐克提供,而阿迪達斯則贊助了6家,此外茵寶有3家,而剩下的兩家則由彪馬贊助。而當比賽進行到現在,率先挺進四強的兩支球隊分別被耐克支持的葡萄牙和阿迪達斯支持的德國占據,而由于最后一場1/4決賽是茵寶(英格蘭)和彪馬(意大利)的對決,這也意味著明天凌晨西班牙同法國這場阿迪達斯和耐克在1/4決賽的唯一一次直接交手將直接決定兩家體育巨頭在此次歐洲杯上的勝負。8據評估,在2012年足球商品的銷售額能總共超過40億歐元,而單單是不足一個月的歐洲杯就有高達5億的銷售額,也就是說在歐洲杯期間將有700萬件球衣被搶購一空。根據市場評估,兩大巨頭阿迪達斯和耐克的市場占有率也是并駕齊驅,其中前者占據38%,而后者占據36%。體育權利顧問奧利弗-米歇爾在接受《隊報》采訪時說:“歐洲杯是耐克通過法國翻身的一個絕佳機會!”C仔爾接著談到兩大贊助商的經營策略:“競技體育的成功會燃起球衣購買的熱情,不過即便是水平相當,不同國家之間的歐洲杯效應卻存在不同。在德國就很出色,大約1/4的德國人通過電視觀看了比賽,而在西班牙效果則差很多,由于民族主義高漲的加泰羅尼亞地區只關注巴薩和巴薩的球衣,他們對西班牙國家隊根本沒什么興趣。”因此盡管西班牙接連拿下歐洲杯和世界杯,但是阿迪達斯只為西班牙足協支付每年2600萬的贊助費#相比之下盡管最近兩屆大賽表現糟糕法國足協將從耐克手中每年可以得到4000萬歐元。米歇爾解釋道:“法國創紀錄的4000萬歐元贊助費得益于阿迪達斯和耐克競逐未來15年歐洲市場的競爭。耐克需要籠絡一個大國來打贏這場歐洲大陸的戰爭,而盡管德國拿到的贊助費并不太高,但是他們卻顯然牢牢掌握在民族品牌阿迪達斯手中。從長期投資來看,耐克給法國的贊助并不算過高。”
耐克  阿迪達斯  歐洲杯  球衣  西班牙
 
LDA :主題模型###  
格式要求:list of list形式,分詞好的的整個語料
 
from  gensim 
import  corpora
,  models
,  similarities
import  gensim
 
dictionary 
=  corpora
. Dictionary
( contents_clean
) 
corpus 
=  [ dictionary
. doc2bow
( sentence
)  for  sentence 
in  contents_clean
] 
 
lda 
=  gensim
. models
. ldamodel
. LdaModel
( corpus
= corpus
,  id2word
= dictionary
,  num_topics
= 20 )  
 
print  ( lda
. print_topic
( 1 ,  topn
= 5 ) ) 
 
0.007*"中" + 0.006*"說" + 0.004*"觀眾" + 0.002*"賽區" + 0.002*"歲"
 
for  topic 
in  lda
. print_topics
( num_topics
= 20 ,  num_words
= 5 ) : print  ( topic
[ 1 ] ) 
 
0.007*"女人" + 0.006*"男人" + 0.006*"M" + 0.004*"S" + 0.004*"說"
0.004*"中" + 0.004*"訓練" + 0.003*"說" + 0.003*"學校" + 0.002*"研究生"
0.006*"戲" + 0.006*"導演" + 0.005*"該劇" + 0.004*"中" + 0.004*"演員"
0.007*"中" + 0.006*"說" + 0.004*"觀眾" + 0.002*"賽區" + 0.002*"歲"
0.004*"萬" + 0.003*"號" + 0.003*"中" + 0.002*"S" + 0.002*"R"
0.014*"電影" + 0.009*"導演" + 0.007*"影片" + 0.006*"中國" + 0.005*"中"
0.006*"中" + 0.005*"比賽" + 0.004*"說" + 0.003*"撒" + 0.002*"時間"
0.006*"賽季" + 0.005*"中" + 0.003*"聯賽" + 0.003*"中國" + 0.002*"航母"
0.005*"李小璐" + 0.004*"中" + 0.002*"賈乃亮" + 0.002*"W" + 0.002*"皮膚"
0.004*"萬" + 0.003*"號" + 0.003*"V" + 0.003*"T" + 0.003*"劉濤"
0.021*"男人" + 0.008*"女人" + 0.007*"考生" + 0.004*"說" + 0.003*"中"
0.005*"中" + 0.005*"食物" + 0.004*"i" + 0.004*"a" + 0.004*"吃"
0.006*"中" + 0.004*"電影" + 0.004*"說" + 0.002*"中國" + 0.002*"高考"
0.007*"中" + 0.006*"孩子" + 0.004*"說" + 0.003*"教育" + 0.003*"中國"
0.005*"中" + 0.005*"節目" + 0.004*"說" + 0.004*"表演" + 0.003*"歲"
0.007*"電視劇" + 0.004*"中" + 0.003*"說" + 0.003*"飛行" + 0.002*"飛機"
0.007*"中" + 0.006*"球隊" + 0.005*"選手" + 0.004*"觀眾" + 0.004*"i"
0.005*"中" + 0.005*"天籟" + 0.004*"產品" + 0.004*"肌膚" + 0.003*"職場"
0.008*"中國" + 0.008*"飾演" + 0.007*"中" + 0.004*"說" + 0.004*"節目"
0.021*"e" + 0.021*"a" + 0.016*"o" + 0.013*"i" + 0.013*"n"
 
df_train
= pd
. DataFrame
( { 'contents_clean' : contents_clean
, 'label' : df_news
[ 'category' ] } ) 
df_train
. tail
( ) 
 
 
 
contents_cleanlabel 4995[天氣, 炎熱, 補水, 變得, 美國, 跑步, 世界, 雜志, 報道, 喝水, 身體, 補... 時尚  4996[不想, 說, 話, 刺激, 說, 做, 只能, 走, 離開, 傷心地, 想起, 一句, 話... 時尚  4997[歲, 劉曉慶, 最新, 嫩照, O, 衷, 詰, 牧蹕, 慶, 看不出, 歲, 秒殺, 劉... 時尚  4998[導語, 做, 爸爸, 一種, 幸福, 無論是, 領養, 親生, 更何況, 影視劇, 中, ... 時尚  4999[全球, 最美, 女人, 合成圖, 國, 整形外科, 教授, 李承哲, 國際, 學術, 雜志... 時尚  
 
df_train
. label
. unique
( ) 
 
array(['汽車', '財經', '科技', '健康', '體育', '教育', '文化', '軍事', '娛樂', '時尚'], dtype=object)
 
label_mapping 
=  { "汽車" :  1 ,  "財經" :  2 ,  "科技" :  3 ,  "健康" :  4 ,  "體育" : 5 ,  "教育" :  6 , "文化" :  7 , "軍事" :  8 , "娛樂" :  9 , "時尚" :  0 } 
df_train
[ 'label' ]  =  df_train
[ 'label' ] . map ( label_mapping
) 
df_train
. head
( ) 
 
 
 
contents_cleanlabel 0[經銷商, 電話, 試駕, 訂車, U, 憬, 杭州, 濱江區, 江陵, 路, 號, 轉, ... 1  1[呼叫, 熱線, 服務, 郵箱, k, f, p, e, o, p, l, e, d, a,... 1  2[M, I, N, I, 品牌, 二月, 公布, 最新, M, I, N, I, 新, 概念... 1  3[清倉, 甩賣, 一汽, 夏利, N, 威志, V, 低至, 萬, 啟新, 中國, 一汽, ... 1  4[日內瓦, 車展, 見到, 高爾夫, 家族, 新, 成員, 高爾夫, 敞篷版, 款, 全新,... 1  
 
from  sklearn
. model_selection 
import  train_test_splitx_train
,  x_test
,  y_train
,  y_test 
=  train_test_split
( df_train
[ 'contents_clean' ] . values
,  df_train
[ 'label' ] . values
,  random_state
= 1 ) 
 
x_train
[ 0 ] [ 1 ] 
 
'上海'
 
words 
=  [ ] 
for  line_index 
in  range ( len ( x_train
) ) : try : words
. append
( ' ' . join
( x_train
[ line_index
] ) ) except : print  ( line_index
, word_index
) 
words
[ 0 ]         
 
'中新網 上海 日電 于俊 父親節 網絡 吃 一頓 電影 快餐 微 電影 爸 對不起 我愛你 定于 本月 父親節 當天 各大 視頻 網站 首映 葜 譜 鞣 劍 保慈 障蚣 欽 囈 檣 埽 ⒌ 纈 埃 ǎ 停 椋 悖 潁 鎩 媯 椋 恚 稱 微型 電影 新 媒體 平臺 播放 狀態 短時 休閑 狀態 觀看 完整 策劃 系統 制作 體系 支持 顯示 較完整 故事情節 電影 微 超短 放映 微 周期 制作 天 數周 微 規模 投資 人民幣 幾千 數萬元 每部 內容 融合 幽默 搞怪 時尚 潮流 人文 言情 公益 教育 商業 定制 主題 單獨 成篇 系列 成劇 唇 開播 微 電影 爸 對不起 我愛你 講述 一對 父子 觀念 缺少 溝通 導致 關系 父親 傳統 固執 鐘情 傳統 生活 方式 兒子 新派 音樂 達 習慣 晚出 早 生活 性格 張揚 叛逆 兩種 截然不同 生活 方式 理念 差異 一場 父子 間 拉開序幕 子 失手 打破 父親 心愛 物品 父親 趕出 家門 劇情 演繹 父親節 妹妹 哥哥 化解 父親 這場 矛盾 映逋壞 嚼 斫 狻 ⒍ 粵 ⒌ 槳容 爭執 退讓 傳統 尷尬 父子 尷尬 情 男人 表達 心中 那份 感恩 一杯 濾掛 咖啡 父親節 變得 溫馨 鎂 纈 繕 蝦 N 逄 煳 幕 傳播 迪歐 咖啡 聯合 出品 出品人 希望 觀摩 捫心自問 父親節 父親 記得 父親 生日 哪一天 父親 愛喝 跨出 家門 那一刻 感覺 一顆 顫動 心 操勞 天下 兒女 父親節 大聲 喊出 父親 家人 愛 完'
 
print  ( len ( words
) ) 
 
3750
 
from  sklearn
. feature_extraction
. text 
import  CountVectorizer
texts
= [ "dog cat fish" , "dog cat cat" , "fish bird" ,  'bird' ] 
cv 
=  CountVectorizer
( ) 
cv_fit
= cv
. fit_transform
( texts
) print ( cv
. get_feature_names
( ) ) 
print ( cv_fit
. toarray
( ) ) print ( cv_fit
. toarray
( ) . sum ( axis
= 0 ) ) 
 
['bird', 'cat', 'dog', 'fish']
[[0 1 1 1][0 2 1 0][1 0 0 1][1 0 0 0]]
[2 3 2 2]
 
from  sklearn
. feature_extraction
. text 
import  CountVectorizer
texts
= [ "dog cat fish" , "dog cat cat" , "fish bird" ,  'bird' ] 
cv 
=  CountVectorizer
( ngram_range
= ( 1 , 4 ) ) 
cv_fit
= cv
. fit_transform
( texts
) print ( cv
. get_feature_names
( ) ) 
print ( cv_fit
. toarray
( ) ) print ( cv_fit
. toarray
( ) . sum ( axis
= 0 ) ) 
 
['bird', 'cat', 'cat cat', 'cat fish', 'dog', 'dog cat', 'dog cat cat', 'dog cat fish', 'fish', 'fish bird']
[[0 1 0 1 1 1 0 1 1 0][0 2 1 0 1 1 1 0 0 0][1 0 0 0 0 0 0 0 1 1][1 0 0 0 0 0 0 0 0 0]]
[2 3 1 1 2 2 1 1 2 1]
 
from  sklearn
. feature_extraction
. text 
import  CountVectorizervec 
=  CountVectorizer
( analyzer
= 'word' ,  max_features
= 4000 ,   lowercase 
=  False ) 
vec
. fit
( words
)  
from  sklearn
. naive_bayes 
import  MultinomialNB
classifier 
=  MultinomialNB
( ) 
classifier
. fit
( vec
. transform
( words
) ,  y_train
) 
 
MultinomialNB(alpha=1.0, class_prior=None, fit_prior=True)
 
test_words 
=  [ ] 
for  line_index 
in  range ( len ( x_test
) ) : try : test_words
. append
( ' ' . join
( x_test
[ line_index
] ) ) except : print  ( line_index
, word_index
) 
test_words
[ 0 ] 
 
'國家 公務員 考試 申論 應用文 類 試題 實質 一道 集 概括 分析 提出 解決問題 一體 綜合性 試題 說 一道 客觀 凝練 申發 論述 文章 題目 分析 歷年 國考 申論 真題 公文 類 試題 類型 多樣 包括 公文 類 事務性 文書 類 題材 從題 干 作答 材料 內容 整合 分析 無需 太 創造性 發揮 縱觀 歷年 申論 真題 作答 應用文 類 試題 文種 格式 作出 特別 重在 內容 考查 行文 格式 考生 平常心 面對 應用文 類 試題 準確 把握 作答 領會 內在 含義 把握 題材 主旨 材料 結構 輕松 應對 應用文 類 試題 R 弧 ⒆ 釩 鹽 展文 寫作 原則 T 材料 中來 應用文 類 試題 材料 總體 把握 客觀 考生 材料 中來 材料 中 把握 材料 準確 理解 題材 主旨 T 政府 角度 作答 應用文 類 試題 更應 注重 政府 角度 觀點 政府 角度 出發 原則 表述 觀點 提出 解決 之策 考生 作答 站 政府 人員 角度 看待 提出 解決問題 T 文體 結構 形式 考查 重點 文體 結構 大部分 評分 關鍵點 解答 方法 薄 ⒆ ス 丶 詞 明 方向 作答 題目 題干 作答 作答 方向 作答 角度 關鍵 向導 考生 仔細閱讀 題干 作答 抓住 關鍵詞 作答 方向 相關 要點 整理 作答 思路 年國考 地市級 真 題為 例 潦惺姓 府 宣傳 推進 近海 水域 污染 整治 工作 請 給定 資料 市政府 工作人員 身份 草擬 一份 宣傳 綱要 R 求 保對 宣傳 內容 要點 提綱挈領 陳述 玻 體現 政府 精神 全市 各界 關心 支持 污染 整治 工作 通俗易懂 超過 字 骯 丶 詞 近海 水域 污染 整治 工作 市政府 工作人員 身份 宣傳 綱要 提綱挈領 陳述 體現 政府 精神 全市 各界 關心 支持 污染 整治 工作 通俗易懂 提示 歸結 作答 要點 包括 污染 情況 原因 解決 對策 作答 思路 情況 原因 對策 意義 邏輯 順序 安排 文章 結構 病 ⒋ 缶殖 齜 ⅲ 明 結構 解答 應用文 類 試題 考生 材料 整體 出發 大局 出發 高屋建瓴 把握 材料 主題 思想 事件 起因 解決 對策 閱讀文章 構建 文章 結構 直至 快速 解答 場 ⒗ 硭 乘悸 罰明 邏輯 應用文 類 試題 嚴密 邏輯思維 情況 原因 對策 意義 考生 作答 先 弄清楚 解答 思路 統籌安排 脈絡 清晰 邏輯 表達 內容 表述 礎 把握 明 詳略 考生 仔細閱讀 分析 揣摩 應用文 類 試題 內容 答題 時要 詳略 得當 主次 分明 安排 內容 增加 文章 層次感 閱卷 老師 閱卷 時能 明白 清晰 一目了然 玻埃 保蹦旯 考 考試 申論 試卷 分為 省級 地市級 兩套 試卷 能力 大有 省級 申論 試題 考生 宏觀 角度看 注重 深度 廣度 考生 深謀遠慮 地市級 試題 考生 微觀 視角 觀察 側重 考查 解決 能力 考生 貫徹執行 作答 區別對待'
 
classifier
. score
( vec
. transform
( test_words
) ,  y_test
) 
 
0.80400000000000005
 
from  sklearn
. feature_extraction
. text 
import  TfidfVectorizervectorizer 
=  TfidfVectorizer
( analyzer
= 'word' ,  max_features
= 4000 ,   lowercase 
=  False ) 
vectorizer
. fit
( words
) 
 
TfidfVectorizer(analyzer='word', binary=False, decode_error='strict',dtype=<class 'numpy.int64'>, encoding='utf-8', input='content',lowercase=False, max_df=1.0, max_features=4000, min_df=1,ngram_range=(1, 1), norm='l2', preprocessor=None, smooth_idf=True,stop_words=None, strip_accents=None, sublinear_tf=False,token_pattern='(?u)\\b\\w\\w+\\b', tokenizer=None, use_idf=True,vocabulary=None)
 
from  sklearn
. naive_bayes 
import  MultinomialNB
classifier 
=  MultinomialNB
( ) 
classifier
. fit
( vectorizer
. transform
( words
) ,  y_train
) 
 
MultinomialNB(alpha=1.0, class_prior=None, fit_prior=True)
 
classifier
. score
( vectorizer
. transform
( test_words
) ,  y_test
) 
 
0.81520000000000004
                            
總結 
                            
                                以上是生活随笔 為你收集整理的记录处理搜狗新闻分类 的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                            
                                如果覺得生活随笔 網站內容還不錯,歡迎將生活随笔 推薦給好友。