如何在 Streamlit 中正确检查并初始化 Gemini-Pro 聊天会话

本文详解解决 `typeerror: argument of type 'sessionstateproxy' is not iterable` 的根本原因,即误用 `in` 操作符检测 streamlit `st.session_state` 属性,并提供健壮、可复用的会话初始化方案。

在使用 Google Generative AI(如 gemini-pro)构建 Streamlit 聊天机器人时,一个常见误区是试图用 Python 的 in 操作符直接判断 st.session_state 是否包含某个键,例如:

if "chat_session" not in st.session_state:  # ❌ 错误!会触发 TypeError

这会导致如下错误:

TypeError: argument of type 'SessionStateProxy' is not iterable

原因在于:st.session_state 是一个 SessionStateProxy 对象,它不是容器类型(如 dict、list 或 set),不支持 in 成员检测语法。in 只适用于可迭代且实现了 __contains__ 方法的对象,而 SessionStateProxy 并未实现该协议。

✅ 正确做法是使用 hasattr() 检查属性是否存在:

if not hasattr(st.session_state, "chat_session"):
    st.session_state.chat_session = model.start_chat(history=[])

该方式安全、语义清晰,且与 Streamlit 的状态管理机制完全兼容。

✅ 完整修复后的代码(推荐写法)

import os
import streamlit as st
from dotenv import load_dotenv
import google.generativeai as gen_ai

load_dotenv()
GOOGLE_API_KEY = os.getenv("GOOGLE_API_KEY")
if not GOOGLE_API_KEY:
    st.error("❌ GOOGLE_API_KEY not found in environment. Please check your .env file.")
    st.stop()

gen_ai.configure(api_key=GOOGLE_API_KEY)
model = gen_ai.GenerativeModel("gemini-pro")

def translate_role_for_streamlit(user_role):
    return "assistant" if user_role == "model" else user_role

# ✅ 正确初始化 chat_session:使用 hasattr()
if not hasattr(st.session_state, "chat_session"):
    st.session_state.chat_session = model.start_chat(history=[])

st.set_page_config(
    page_title="CAIE Bot — Gemini-Powered Assistant",
    page_icon="?",
    layout="centered"
)
st.title("? CAIE Bot")

# 渲染历史消息(注意:需确保 message.parts 存在且非空)
for message in st.session_state.chat_session.history:
    with st.chat_message(translate_role_for_streamlit(message.role)):
        # 安全访问 parts[0].text,避免 IndexError
        if message.parts and len(message.parts) > 0 and hasattr(message.parts[0], "text"):
            st.markdown(message.parts[0].text)
        else:
            st.markdown("_[Empty message]_")

# 用户输入与响应逻辑
user_prompt = st.chat_input("Ask CAIE bot...")
if user_prompt:
    # 显示用户消息
    with st.chat_message("user"):
        st.markdown(user_prompt)

    # 发送请求并处理响应(含异常捕获)
    try:
        gemini_response = st.session_state.chat_session.send_message(user_prompt)
        with st.chat_message("assistant"):
            st.markdown(gemini_response.text or "_Gemini returned no text._")
    except Exception as e:
        st.error(f"⚠️ Error during inference: {str(e)}")

? 补充说明与最佳实践

  • 为什么不用 st.session_state.get("chat_session") is None?
    st.session_state 不支持 .get() 方法(它不是字典),调用会报 AttributeError。务必使用 hasattr()。

  • 会话生命周期说明
    Streamlit 的 st.session_state 在单次浏览器会话(tab)内持久化;关闭标签页或刷新后自动重置——这正符合你“会话结束即清空历史”的需求,无需手动清理。

  • 关键健壮性增强点

    • 添加 API 密钥存在性校验;
    • 对 message.parts 做空值与长度检查,防止 IndexError;
    • 使用 try/except 包裹 send_message(),提升用户体验。
  • 进阶提示:若需跨页面共享会话或持久化历史(如存入 Redis),应结合 st.cache_resource 或外部存储,而非依赖 st.session_state。

遵循以上修正,你的 Gemini-Pro 聊天机器人将稳定运行,不再因状态检测逻辑出错而中断。