LLM 算法岗 | 八股问答()· 多模态与主流模型架构

张开发
2026/4/4 10:59:40 15 分钟阅读
LLM 算法岗 | 八股问答()· 多模态与主流模型架构
本文能帮你解决什么1. 搞懂FastAPI异步async/await到底在什么场景下能真正提升性能。2. 掌握在FastAPI中正确使用多线程处理CPU密集型任务的方法。3. 避开常见的坑比如阻塞操作、数据库连接池耗尽、GIL限制。4. 获得可直接复用的代码片段和配置建议。?? 主要内容脉络一、问题与背景为什么你的async可能“假生效”二、核心原理ASGI、async/await与多线程的关系三、实战演示I/O密集型 vs CPU密集型任务的正确处理姿势四、注意事项与进阶思考那些容易翻车的点一、问题与背景为什么你的async可能“假生效”很多人以为只要给FastAPI的路由函数加上async def就自动获得了高并发能力。其实不然。FastAPI基于ASGI异步服务器网关接口它确实允许异步处理请求。但异步不等于多线程更不等于性能无限提升。它的核心是“非阻塞”当一个请求在等待I/O比如查数据库、调外部API时事件循环Event Loop会去处理其他请求而不是干等着。这意味着如果你的async函数里干的是CPU密集型的活儿比如复杂的计算、图像处理那它依然会阻塞整个事件循环其他请求照样排队。官方文档虽然说了FastAPI支持异步但没明确告诉你异步的优势仅限于I/O密集型场景。 这是我用真金白银的线上故障换来的教训。二、核心原理ASGI、async/await与多线程的关系好咱们先来理清几个关键概念?? ASGIAsynchronous Server Gateway Interface这是FastAPI的底层协议。你可以把它想象成一个高效的餐厅调度系统。服务员事件循环负责接待顾客请求如果某位顾客点菜后需要等厨房做菜I/O等待服务员不会傻等而是先去接待其他顾客。厨房做好菜会通知服务员服务员再回来上菜。这样一个服务员就能同时照顾多桌客人。?? async/await这是Python的语法糖用来定义协程Coroutine。async def声明一个函数是“可暂停的”await表示“在这里可以暂停去干别的”。?? 多线程/多进程当你的任务主要是CPU密集型比如大量数学计算时异步帮不上忙。这时就需要请出多线程或多进程把计算任务分摊到多个CPU核心上去。FastAPI本身不直接管理线程但我们可以利用Python的concurrent.futures或asyncio.to_thread来实现。简单总结I/O密集型用asyncCPU密集型用多线程/多进程混合型任务两者结合。三、实战演示I/O密集型 vs CPU密集型任务的正确处理姿势接下来重点来了怎么在代码里落实场景1纯I/O密集型推荐使用async比如调用外部API、查询数据库。这是async的主场。import asynciofrom fastapi import FastAPIimport httpx # 异步HTTP客户端app FastAPI()app.get(/fetch-data)async def fetch_data():# 模拟并发调用三个外部APIasync with httpx.AsyncClient() as client:tasks [client.get(https://api.example.com/data1),client.get(https://api.example.com/data2),client.get(https://api.example.com/data3)]responses await asyncio.gather(*tasks)return {results: [r.json() for r in responses]}?? 这里千万别用同步的requests库否则会阻塞事件循环。务必使用httpx或aiohttp这种异步客户端。场景2CPU密集型必须用多线程/多进程比如图像处理、数据分析。这时候就得请出进程池。from fastapi import FastAPIfrom concurrent.futures import ProcessPoolExecutorimport timeimport osapp FastAPI()# 创建进程池工作进程数建议设为CPU核心数executor ProcessPoolExecutor(max_workersmin(32, os.cpu_count() or 1))def cpu_intensive_task(n: int):模拟CPU密集型任务比如图像处理time.sleep(n) # 这里用sleep模拟计算耗时return fTask {n} completedapp.get(/process-image)async def process_image():# 将阻塞函数提交到进程池避免阻塞事件循环future executor.submit(cpu_intensive_task, 2)result future.result()return {result: result}# 应用关闭时正确关闭进程池app.on_event(shutdown)def shutdown_event():executor.shutdown(waitTrue)?? 这里有个坑线程池大小max_workers不是越大越好。设置太大反而会增加上下文切换开销。一般建议设置为CPU核心数1。场景3混合型async 多线程实际项目中很多任务既涉及I/O又涉及计算。这时可以结合两者。import asynciofrom fastapi import FastAPIfrom concurrent.futures import ThreadPoolExecutorimport httpxapp FastAPI()executor ThreadPoolExecutor(max_workers4)async def fetch_url(client: httpx.AsyncClient, url: str):异步获取数据response await client.get(url)return response.json()def heavy_computation(data: dict):模拟CPU密集型计算time.sleep(1) # 模拟计算return {processed: data}app.get(/complex-task)async def complex_task():# 步骤1并发I/O异步async with httpx.AsyncClient() as client:data await fetch_url(client, https://api.example.com/data)# 步骤2CPU计算扔到线程池loop asyncio.get_event_loop()result await loop.run_in_executor(executor, heavy_computation, data)return result如果你用的是Python 3.9还可以用asyncio.to_thread让代码更简洁。四、注意事项与进阶思考那些容易翻车的点再说几个容易出问题的地方都是血泪史?? 阻塞操作绝对不能放在async函数里比如time.sleep()、同步的数据库驱动如psycopg2、同步的文件读写等。要用await asyncio.sleep()、异步驱动如asyncpg和aiofiles替代。?? 数据库连接池配置异步环境下数据库连接池的大小需要重新评估。我遇到过因为连接池太小高并发下所有请求都在等连接导致服务雪崩的情况。建议根据实际压力测试调整。?? GIL全局解释器锁限制Python的GIL会让多线程在纯CPU任务上效率打折。如果计算极其密集考虑用multiprocessing启动多进程但要注意进程间通信的成本。?? Uvicorn配置生产环境运行FastAPI通常用Uvicorn。建议设置--workers进程数为CPU核心数--loop uvloop使用更高效的事件循环。例如uvicorn main:app --workers 4 --loop uvloop --host 0.0.0.0 --port 8000?? 监控与日志异步环境下错误栈可能不那么直观。一定要打好日志尤其是耗时操作。可以用asyncio.create_task时附加错误回调避免任务静默失败。蘸倒庞艘

更多文章