scrapy mysql 报错_scrapy爬数据存mysql报错
最近學習python,遇到一個奇葩問題,跪求高手解答
這是數據直接存的json文件
存mysql就會報如下錯誤
pipeline代碼如下:
from twisted.enterprise import adbapi
import MySQLdb
import MySQLdb.cursors
class TutorialPipeline(object):
def __init__(self):
self.dbpool = adbapi.ConnectionPool('MySQLdb',
db = 'test',
user = 'root',
passwd = '123456',
cursorclass = MySQLdb.cursors.DictCursor,
charset = 'utf8',
use_unicode = False
)
# pipeline dafault function
def process_item(self, item, spider):
query = self.dbpool.runInteraction(self._conditional_insert, item)
return item
# insert the data to databases
def _conditional_insert(self, tx, item):
sql = "insert into test values (%s,%s)"
tx.execute(sql, (item['link'],item['title']))
總結
以上是生活随笔為你收集整理的scrapy mysql 报错_scrapy爬数据存mysql报错的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: aix如何安装mysql_AIX下安装M
- 下一篇: mysql存储过程1267_mysql存