本文详解在解析多行表格时因部分行缺失``标签导致的`'nonetype' object has no attribute 'contents'`错误,提供基于css选择器的健壮解决方案,并给出可直接运行的代码示例。
在使用Beautiful Soup解析网页表格(如Erowid的药物分类表)时,一个常见陷阱是:假设每行 直接添加if判断虽可行,但代码冗长: 更优雅、高效且符合现代BS4实践的方式是利用CSS选择器的:has()伪类(需Beautiful Soup 4.11.2+ 和 lxml 或 html.parser): ⚠️ 注意事项: 总结:面对结构不完全一致的HTML表格,优先用CSS选择器前置过滤,而非在Python中做防御性编程——这既是代码健壮性的保障,也是专业Web抓取实践的核心原则。都包含目标子元素(如标签),而实际HTML中表头行、空行或说明行往往不含该标签。例如,#section-PLANTS表格的第一行是纯文本标题行( ),不包含任何,此时调用r.find('a').text或.contents[0]会因r.find('a')返回None而触发AttributeError。lspan="2">Plants for r in plants_table.find_all('tr'):
link = r.find('a')
if link: # 避免None调用
print(link.text)import requests
from bs4 import BeautifulSoup
url = 'https://erowid.org/general/big_chart.shtml'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# 精准定位目标表格
plants_table = soup.s
elect_one('#section-PLANTS')
if not plants_table:
raise ValueError("Table with id 'section-PLANTS' not found")
# ✅ 只选取包含标签的行,自动跳过表头/空行
for row in plants_table.select('tr:has(a)'):
anchor = row.find('a')
# 此处anchor必不为None,可安全调用.text
print(anchor.text.strip()) ✅ 关键优势: tr:has(a) 是声明式筛选,语义清晰,性能优于Python层循环过滤; 完全规避None风险,无需额外if检查; 兼容所有含的嵌套结构(如...或...)。








