|
发表于 2007-1-23 22:22:54
|
显示全部楼层
Post by wq1977
这是我看见最欣慰的一个回复。
不过,也许你还是不能满足,因为Primary.xml.gz和filelist.xml.gz有时候大小可以达到数M,但是使用那个插件还是不能解决,你可以尝试修改 /usr/lib/python2.4/site-packages/urlgrabber目录中的grabber.py,以便让所有的文件都使用wget或者axel下载,你只需要在这个文件的urlgrab函数中增加下面几行代码:
- if filename is None:
- filename = os.path.basename( urllib.unquote(path) )
- #new code start
- if not (os.path.splitext(filename)[1] in ('.hdr')):
- print "I want use wget or even axel to download,not you!"
- if urlparse.urlparse(url)[0] == "ftp":
- raise URLGrabError(2,
- _('Ftp can not, no proxy provide'))
- if os.system("wget %s -O %s" % (url,filename)) != 0:
- raise URLGrabError(2,
- _('System function return fail'))
- return filename
- #new code finish
-
- if scheme == 'file' and not opts.copy_local:
复制代码
或者,参考我修改过的原帖中的网址下载我修改好的文件覆盖你的文件,或者你可以考虑先备份你原来的文件,并且按照你的需要更改其中的代码,至少,你可能想把过滤ftp地址的那一段去掉。
这才是精华啊....
可惜啊,看不懂啊.... |
|