如何使用Python检索网页的页面标题(标题html标签)?
这是@Vinko Vrsalovic的答案的简化版本:
1 2 3 4 5
| import urllib2
from BeautifulSoup import BeautifulSoup
soup = BeautifulSoup(urllib2.urlopen("https://www.google.com"))
print soup.title.string |
注意:
对于beautifulsoup 4.x,请使用其他导入:
1
| from bs4 import BeautifulSoup |
我将始终将lxml用于此类任务。您也可以使用beautifulsoup。
1 2 3
| import lxml.html
t = lxml.html.parse(url)
print t.find(".//title").text |
根据评论进行编辑:
1 2 3 4 5 6 7
| from urllib2 import urlopen
from lxml.html import parse
url ="https://www.google.com"
page = urlopen(url)
p = parse(page)
print p.find(".//title").text |
无需导入其他库。请求具有内置的此功能。
1 2 3 4 5
| >> hearders = {'headers':'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:51.0) Gecko/20100101 Firefox/51.0'}
>>> n = requests.get('http://www.imdb.com/title/tt0108778/', headers=hearders)
>>> al = n.text
>>> al[al.find('') + 7 : al.find('')]
u'Friends (TV Series 1994\\u20132004) - IMDb' |
机械化浏览器对象具有title()方法。因此,这篇文章中的代码可以重写为:
1 2 3 4
| from mechanize import Browser
br = Browser()
br.open("http://www.google.com/")
print br.title() |
对于这样一个简单的任务,这可能是过高的,但是如果您打算做更多的事情,那么从这些工具(机械化,BeautifulSoup)开始比较明智,因为它们比其他工具(使用urllib获得更容易使用)内容和regexen或其他解析器以解析html)
链接:
美丽汤
机械化
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| #!/usr/bin/env python
#coding:utf-8
from bs4 import BeautifulSoup
from mechanize import Browser
#This retrieves the webpage content
br = Browser()
res = br.open("https://www.google.com/")
data = res.get_data()
#This parses the content
soup = BeautifulSoup(data)
title = soup.find('title')
#This outputs the content :)
print title.renderContents() |
使用HTMLParser:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
| from urllib.request import urlopen
from html.parser import HTMLParser
class TitleParser(HTMLParser):
def __init__(self):
HTMLParser.__init__(self)
self.match = False
self.title = ''
def handle_starttag(self, tag, attributes):
self.match = tag == 'title'
def handle_data(self, data):
if self.match:
self.title = data
self.match = False
url ="http://example.com/"
html_string = str(urlopen(url).read())
parser = TitleParser()
parser.feed(html_string)
print(parser.title) # prints: Example Domain |
使用汤.select_one定位标题标签
1 2 3 4 5 6
| import requests
from bs4 import BeautifulSoup as bs
r = requests.get('url')
soup = bs(r.content, 'lxml')
print(soup.select_one('title').text) |
使用正则表达式
1 2 3
| import re
match = re.search('(.*?)', raw_html)
title = match.group(1) if match else 'No title' |
这是一个容错的HTMLParser实现。
您可以在get_title()处投入几乎任何东西而不会破坏它,如果发生意外情况
get_title()将返回None。
Parser()下载页面时,会将其编码为ASCII
无论页面中使用的字符集如何,都忽略任何错误。
更改to_ascii()将数据转换为UTF-8或任何其他编码将是微不足道的。只需添加一个编码参数,然后将函数重命名为to_encoding()之类的东西即可。
默认情况下,HTMLParser()会在损坏的html上中断,甚至会在琐碎的事情(如不匹配的标签)上中断。为了防止出现这种情况,我将HTMLParser()的错误方法替换为将忽略错误的函数。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66
| #-*-coding:utf8;-*-
#qpy:3
#qpy:console
'''
Extract the title from a web page using
the standard lib.
'''
from html.parser import HTMLParser
from urllib.request import urlopen
import urllib
def error_callback(*_, **__):
pass
def is_string(data):
return isinstance(data, str)
def is_bytes(data):
return isinstance(data, bytes)
def to_ascii(data):
if is_string(data):
data = data.encode('ascii', errors='ignore')
elif is_bytes(data):
data = data.decode('ascii', errors='ignore')
else:
data = str(data).encode('ascii', errors='ignore')
return data
class Parser(HTMLParser):
def __init__(self, url):
self.title = None
self.rec = False
HTMLParser.__init__(self)
try:
self.feed(to_ascii(urlopen(url).read()))
except urllib.error.HTTPError:
return
except urllib.error.URLError:
return
except ValueError:
return
self.rec = False
self.error = error_callback
def handle_starttag(self, tag, attrs):
if tag == 'title':
self.rec = True
def handle_data(self, data):
if self.rec:
self.title = data
def handle_endtag(self, tag):
if tag == 'title':
self.rec = False
def get_title(url):
return Parser(url).title
print(get_title('http://www.google.com')) |
soup.title.string实际上返回一个unicode字符串。
要将其转换为普通字符串,您需要
string=string.encode('ascii','ignore')
在Python3中,我们可以从urllib.request库中调用方法urlopen从bs4中调用方法BeautifulSoup来获取页面标题。
1 2 3 4 5
| from urllib.request import urlopen
from bs4 import BeautifulSoup
html = urlopen("https://www.google.com")
soup = BeautifulSoup(html, 'lxml')
print(soup.title.string) |
在这里,我们使用最高效的解析器'lxml'。
使用lxml ...
从根据Facebook opengraph协议标记的页面元中获取它:
1 2 3 4
| import lxml.html.parse
html_doc = lxml.html.parse(some_url)
t = html_doc.xpath('//meta[@property="og:title"]/@content')[0] |
或对lxml使用.xpath:
1
| t = html_doc.xpath(".//title")[0].text |