Ruby:多线程下载博客文章到本地的完整代码
#encoding:utf-8 require 'net/http' require 'thread' require 'open-uri' require 'nokogiri' require 'date'$queue = Queue.new #文章列表页数 page_nums = 8 page_nums.times do |num| $queue.push("http://www.cnblogs.com/hongfei/default.html?page="+num.to_s) end
threads = [] #获取网页源码 def get_html(url) html = "" open(url) do |f| html = f.read end return html end
def fetch_links(html) doc = Nokogiri::HTML(html) #提取文章链接 doc.xpath('//div[@class="postTitle"]/a').each do |link| href = link['href'].to_s if href.include?"html" #add work to the queue $queue.push(link['href']) end end end
def save_to(save_to,content) f = File.new("./"+save_to+".html","w+") f.write(content) f.close() end
#程序开始的时间 $total_time_begin = Time.now.to_i
#开辟的线程数 threadNums = 10 threadNums.times do threads<<Thread.new do until $queue.empty? url = $queue.pop(true) rescue nil html = get_html(url) fetch_links(html) if !url.include?"?page" title = Nokogiri::HTML(html).css('title').text puts "["+ Time.now.strftime("%H:%M:%S") + "]「" + title + "」" + url save_to("pages/" + title.gsub(/\//,""),html) if url.include?".html" end end end end threads.each{|t| t.join}
#程序结束的时间 $total_time_end = Time.now.to_i puts "线程数:" + threadNums.to_s puts "执行时间:" + ($total_time_end - $total_time_begin).to_s + "秒"
多线程部分讲解
$queue = Queue.new #文章列表页数 page_nums = 8 page_nums.times do |num| $queue.push("http://www.cnblogs.com/hongfei/default.html?page="+num.to_s) end
首先声明一个Queue队列,然后往队列中添加文章列表页,以便后面可以从这些列表页中提取文章链接,另外queue声明成全局变量($),以便在函数中也可以访问到。
我的曾是土木人博客文章列表总共有8页,所以需要实现给page_nums赋值为8
#开辟的线程数 threadNums = 10 threadNums.times do threads<<Thread.new do until $queue.empty? url = $queue.pop(true) rescue nil html = get_html(url) fetch_links(html) if !url.include?"?page" title = Nokogiri::HTML(html).css('title').text puts "["+ Time.now.strftime("%H:%M:%S") + "]「" + title + "」" + url save_to("pages/" + title.gsub(/\//,""),html) if url.include?".html" end end end end threads.each{|t| t.join}
通过Thread.new来创建线程
创建线程后,会进入until $queue.empty?循环,直到任务队列为空(即:没有要采集的网址了)
开辟的线程,每次都会从任务队列(queue)取到一个url,并通过get_html函数获取网页源码
由于任务队列中的url有分页url和文章url两种,所以要进行区分。
如果是分页url(url中含有“?page”),就直接提取文章链接。
如果是文章url,就保存到本地(save_to(),文件名为文章title)
在循环体外,创建线程完毕后,需要将创建的线程执行Thread#join方法,以便让主线程等待,
直到所有的线程执行完毕才结束主线程
代码执行时间统计
#程序开始的时间 $total_time_begin = Time.now.to_i #执行过程#程序结束的时间 $total_time_end = Time.now.to_i puts "执行时间:" + ($total_time_end - $total_time_begin).to_s + "秒"
TIme模块的#now方法可以获取当前时间,然后使用to_i,可以将当前时间转换成从1970年1月1日00:00:00 UTC开始所经过的秒数。
获取网页源码
#获取网页源码 def get_html(url) html = "" open(url) do |f| html = f.read end return html end
ruby中,获取网页的方法用Net::HTTP模块和OpenURI模块。OpenURI模块最简单,可以直径将指定网页当成普通文件一样进行操作。
执行结果:使用多线程采集130多篇文章,耗时15秒(单线程:47s左右)
本文向大家介绍PHP实现远程下载文件到本地,包括了PHP实现远程下载文件到本地的使用技巧和注意事项,需要的朋友参考一下 代码很简单就不多废话了,直接奉上: 再来个远程下载文件到服务器 以上所述就是本文的全部内容了,希望大家能够喜欢。
本文向大家介绍java多线程实现文件下载,包括了java多线程实现文件下载的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了java多线程实现文件下载的具体代码,供大家参考,具体内容如下 1、DownloadManager类 2、DownloadThread类 3、TestDownload测试类 代码已经测试可以运行! 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多
本文向大家介绍java多线程实现文件下载功能,包括了java多线程实现文件下载功能的使用技巧和注意事项,需要的朋友参考一下 多线程下载文件的思路: 1.首先获取到文件的总大小 获取文件大小的方式是通过网络读取,getContentLength()即可获取到文件的大小,使用RandomAccessFile()支持随机访问 2.根据所准备的线程数据,计算每一个线程需要下载的文件的大小 上图显示下载40
本文向大家介绍Android实现网络多线程文件下载,包括了Android实现网络多线程文件下载的使用技巧和注意事项,需要的朋友参考一下 实现原理 (1)首先获得下载文件的长度,然后设置本地文件的长度。 (2)根据文件长度和线程数计算每条线程下载的数据长度和下载位置。 如:文件的长度为6M,线程数为3,那么,每条线程下载的数据长度为2M,每条线程开始下载的位置如下图所示: (网上找的图) 例如10M
本文向大家介绍python基于queue和threading实现多线程下载实例,包括了python基于queue和threading实现多线程下载实例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了python基于queue和threading实现多线程下载的方法,分享给大家供大家参考。具体方法如下: 主代码如下: 其中downloadworkers.py 类继承 threading.Th
b0ldfrev 的博客文章,大部分都试比赛的算法等。
本文向大家介绍PHP实现下载远程图片保存到本地的方法,包括了PHP实现下载远程图片保存到本地的方法的使用技巧和注意事项,需要的朋友参考一下 在使用 PHP 做简单的爬虫的时候,我们经常会遇到需要下载远程图片的需求,所以下面来简单实现这个需求。 1.使用 curl 比如我们有下面这两张图片: 第一步,我们可以直接来使用最简单的代码实现: 那在下载远程图片的时候就可以这样: 2.封装一个类 缕清思路之
本文向大家介绍C#实现多线程下载文件的方法,包括了C#实现多线程下载文件的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了C#实现多线程下载文件的方法。分享给大家供大家参考。具体实现方法如下: 调用: 希望本文所述对大家的C#程序设计有所帮助。