简介
最近这几周,MCP的概念非常火啊,不过比起怎么使用mcp,我更想知道我该让mcp,该让ai为我做什么。我们已经到了,提出问题的能力,比解决问题的能力,更重要的时刻。刚好我最近在做无货源电商啊,无货源最重要的一环就是收集平台的热门数据。之前收集抖音商城的数据是自己写的爬虫。我现在想收集淘宝的,那我现在就来试试让mcp来帮我把技术平移。我选择使用的是Browser-use这个工具,它已经被好几个mcp协议纳入了内部组件。它的实现方法很简单,就是模仿人去点击浏览器。
工具下载
链接:本期视频所需工具
视频教学
一、Browser-Use 安装
1、获取Browser-use
# 如果你安装有git
git clone https://github.com/browser-use/web-ui.git
cd web-ui
或者
如果你没有安装git,从【工具下载】中下载 “web-ui”
2、安装虚拟环境(可选)
python -m venv browser-use
.\browser-use\Scripts\activate.bat
3、安装Browser-Use所需环境
pip install -r requirements.txt
playwright install
pip install lxml_html_clean
4、复制环境文件
将 .env.example 文件复制一份,然后改名为 .env
5、运行
python webui.py --ip 127.0.0.1 --port 7788
二、配置 Browser-Use
1、 Browser Settings 浏览器设置
如果勾选【Use Own Browser】可以使用自己浏览器中缓存的数据,免去登陆账号等烦恼,但是要指定自己Chrome的位置。修改 .env 文件中的CHROME_PATH如:
CHROME_PATH="C:\\Program Files\\Google\\Chrome\\Application\\chrome.exe"
2、LLM Settings 大预言模型设置
例一:使用谷歌的gemini大模型(效果好,在线,有免费额度)
LLM Provider 设置为 google
Model Name 设置为 gemini-2.0-flash
来到谷歌Gemini的官网 https://aistudio.google.com/apikey 右上角 “Create API Key” 创建密钥
API Key 设置为 密钥
例二:本地Ollama运行 DeepSeek(吃显卡配置,速度慢,全免费)
在【工具下载】中,找到OllamaSetup .exe双击安装,无脑下一步。
根据自己的配置选择安装不同大小的DeepSeek
ollama run deepseek-r1:70b
ollama run deepseek-r1:32b
ollama run deepseek-r1:14b
ollama run deepseek-r1:8b
ollama run deepseek-r1:7b
LLM Provider 设置为 ollama
Model Name 设置为 自己安装的模型名字,如:deepseek-r1:32b
API Key 设置为 随便填
三、使用 Browser-Use
在“ Run Agent” 中 填入自己的提示词,比如:
请打开https://bilibili.com 搜索博主”程序员哈利”,来到程序员哈利的主页,并且打开第一个视频进行播放
点击 【Run Agent】