下列关于python socket 错误的是_python中socket error 10054的解决方法

下列关于python socket 错误的是_python中socket error 10054的解决方法一个连接被对方重设。一个建立的连接被远程主机强行关闭,若远程主机上的进程异常终止运行(由于内存冲突或硬件故障),或者针对套接字执行了一次强行关闭,便会产生10054错误.在写一个传输文件的socket程序时,客户端实现了和服务端断开连接后重新自动连接功能,但是连接上服务端后再重启服务端,客户端出现了Errno10054异常。出错的代码如下:client.py:importsocketip=…

一个连接被对方重设。一个建立的连接被远程主机强行关闭,若远程主机上的进程异常终止运行(由于内存冲突或硬件故障),或者针对套接字执行了一次强行关闭,便会产生10054错误.

在写一个传输文件的socket程序时,客户端实现了和服务端断开连接后重新自动连接功能,但是连接上服务端后再重启服务端,客户端出现了Errno 10054异常。出错的代码如下:

client.py:import socket

ip = ‘192.168.0.124’

port = 8000

s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

def run():

while True:

try:

s.connect((ip, port))

# do something:send, recv

except socket.error, e:

print “get connect error as”, e

continue

s.close()

if __name__ == ‘__main__’:

run()

解决方案:调整 s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)语句的位置,每次重新连接都生成新的socket实例。

client.py:

import socket

ip = ‘192.168.0.124’

port = 8000

def run():

while True:

s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

try:

s.connect((ip, port))

# do something:send, recv

except socket.error, e:

print “get connect error as”, e

continue

s.close()

if __name__ == ‘__main__’:

run()

python socket.error: [Errno 10054] 远程主机强迫关闭了一个现有的连接。问题解决方案:

前几天使用python读取网页。因为对一个网站大量的使用urlopen操作,所以会被那个网站认定为攻击行为。有时就不再允许下载。导致urlopen()后,request.read()一直卡死在那里。最后会抛出errno 10054.

这个错误是connection reset by peer.也就是传说的远端主机重置了此连接。原因可能是socket超时时间过长;也可能是request = urllib.request.urlopen(url)之后,没有进行request.close()操作;也可能是没有sleep几秒,导致网站认定这种行为是攻击。

具体解决方案如下面的代码:import socket

import time

timeout = 20

socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置

sleep_download_time = 10

time.sleep(sleep_download_time) #这里时间自己设定

request = urllib.request.urlopen(url)#这里是要读取内容的url

content = request.read()#读取,一般会在这里报异常

request.close()#记得要关闭

因为urlopen之后的read()操作其实是调用了socket层的某些函数。所以设置socket缺省超时时间,就可以让网络自己断掉。不必在read()处一直等待。

当然你也可以再外层再写几个try,except,例如:try:

time.sleep(self.sleep_download_time)

request = urllib.request.urlopen(url)

content = request.read()

request.close()

except UnicodeDecodeError as e:

print(‘—–UnicodeDecodeError url:’,url)

except urllib.error.URLError as e:

print(“—–urlError url:”,url)

except socket.timeout as e:

print(“—–socket timout:”,url)

一般来说就莫有问题了。我测试了几千个网页的下载,然后才说出此话。不过如果是下载成千上万的,我做了下测试,ms还是会跳出这个异常。可能是time.sleep()的时间太短,也可能是网络突然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数据,总会有失败的情况出现。

简单的处理方法是:首先参照的我的文章:python检查点简单实现 。先做一个检查点。然后将以上会跑出异常的那段代码while True一下。参见下面的伪代码:def Download_auto(downloadlist,fun,sleep_time=15):

while True:

try: # 外包一层try

value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。

# 只有正常执行方能退出。

if value == Util.SUCCESS:

break

except : # 如果发生了10054或者IOError或者XXXError

sleep_time += 5 #多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。

print(‘enlarge sleep time:’,sleep_time)

不过对于找不到相应的网页,又要做另外的一番处理:# 打印下载信息

def reporthook(blocks_read, block_size, total_size):

if not blocks_read:

print (‘Connection opened’)

if total_size < 0:

print (‘Read %d blocks’ % blocks_read)

else:

# 如果找不到,页面不存在,可能totalsize就是0,不能计算百分比

print(‘downloading:%d MB, totalsize:%d MB’ % (blocks_read*block_size/1048576.0,total_size/1048576.0))

def Download(path,url):

#url = ‘http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar’

#filename = url.rsplit(“/”)[-1]

try:

# python自带的下载函数

urllib.request.urlretrieve(url, path, reporthook)

except IOError as e: # 如果找不到,好像会引发IOError。

print(“download “,url,”/nerror:”,e)

print(“Done:%s/nCopy to:%s” %(url,path))

我用的是python2.7 我搜网上10054错误解决方法的时候发现,大部分文章都是以python3为基础的,对于python2不适用。

python socket.error: [Errno 10054] 远程主机强迫关闭了一个现有的连接。

原因:服务器发现你的爬虫行为了,所有强制断开链接了

解决办法: 服务器知道你是爬虫,加headers, 模拟浏览器agent;head中有一个user-agent每次都换不同的模拟代理

#coding:utf-8

import urllib2

url =’http://www.baidu.com’ #例子

headers = {‘User-agent’ : ‘Mozilla/5.0 (Windows NT 6.2; WOW64; rv:22.0) Gecko/20100101 Firefox/22.0’}

request = urllib2.Request(url, headers = headers)

response = urllib2.urlopen(request,timeout=20)

if response.getcode()==200:

print response.read()

一般请求服务器爬取网页时,我都不加headers的,但是我最近再爬取之前爬取的网页时,就出现了404错误,可是发现了我的爬虫行为。加了headers之后,就又可以正常爬取了。

总结:

求助 python爬虫 requests的get出现10054错误 远程主机强迫关闭了一个现有的连接

1、head中有一个user-agent每次都换不同的模拟代理

2、测试最大访问时间短,每秒多少次请求会出现中断,然后sleep(200)毫秒

3、每次请求中断上一次链接,keep-live=false 试试看,不然就是换IP访问

今天的文章下列关于python socket 错误的是_python中socket error 10054的解决方法分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/12461.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注