百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

实践cline+r1+claude 这种 deepclaude 自动编程思想

lipiwang 2025-03-28 18:23 18 浏览 0 评论

#每天学python##deepseek##vscode##自动编程#

如何使用:

vscode里安装cline最新插件,在cline插件里plan调用deepseekR1模型,act调用Claude模型。

vscode的 cline 界面

在 plan 里提需求:

使用 cline 里的的 fetch 这个 mcpserver,用 python 语言,实现把一个网页里的正文,转换成 md 格式,然后输出到一个新建的 md 文件里。要求是程序运行时要求用户输入 url。

plan 会产生计划并让你决定是否实施

deepseek R1 给出的计划与建议

R1生成的计划:

1. 当前是PLAN MODE,需要先制定计划并与用户讨论

2. 任务要求:

使用fetch-mcp服务器获取网页内容

使用Python实现

将网页正文转换为markdown格式

输出到新建的md文件

运行时要求用户输入URL

3. 需要确认的细节:

输出md文件的路径和命名规则

是否需要处理网页中的图片、链接等元素

是否需要特定的markdown格式要求

4. 计划步骤:

使用fetch-mcp的fetch_markdown工具获取网页markdown

编写Python脚本处理用户输入和文件输出

创建新的md文件并写入转换后的内容

R1 提出的实施建议:

我建议按照以下步骤实现这个网页转markdown工具:

1. 使用fetch-mcp服务器的fetch_markdown工具获取网页内容

2. 编写Python脚本实现以下功能:

提示用户输入URL

调用fetch_markdown工具获取markdown内容

将内容写入新的markdown文件

3. 文件输出方案:

默认输出到当前目录

文件名使用网页标题或当前时间戳

文件扩展名为.md

确认后到 act 调用 claude 模型自动编写python 代码,然后根据提示一步一步调整优化,直到代码跑通。

完成后的代码运行自动产生 md 文件

下面是完整的python代码:

import json
import requests
from datetime import datetime
from urllib.parse import urlparse
from bs4 import BeautifulSoup
import re

def clean_url(url):
    """Clean and validate URL."""
    # Remove control characters and extra whitespace
    url = ''.join(char for char in url if ord(char) >= 32).strip()
    
    # If multiple URLs are present, take the first complete one
    if url.count('http') > 1:
        # Find all occurrences of http:// or https://
        starts = [i for i in range(len(url)) if url.startswith(('http://', 'https://'), i)]
        if starts:
            # Take the first URL by finding the next occurrence or end of string
            start = starts[0]
            next_start = starts[1] if len(starts) > 1 else len(url)
            url = url[start:next_start].strip()
    
    # Add https:// if no protocol is specified
    if not url.startswith(('http://', 'https://')):
        url = 'https://' + url
    
    return url

def get_url():
    """Get URL input from user."""
    while True:
        url = input("Please enter the webpage URL: ").strip()
        if url:
            try:
                url = clean_url(url)
                return url
            except Exception as e:
                print(f"Error processing URL: {str(e)}")
                continue
        print("URL cannot be empty. Please try again.")

def fetch_markdown(url):
    """Fetch webpage content and convert to markdown."""
    try:
        # Fetch webpage content
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
        }
        response = requests.get(url, headers=headers)
        response.raise_for_status()
        
        # Parse HTML content
        soup = BeautifulSoup(response.content, 'html.parser')
        
        # Remove unwanted elements
        for tag in soup(['script', 'style', 'nav', 'footer', 'iframe']):
            tag.decompose()
        
        # Get title
        title = soup.title.string if soup.title else "Untitled"
        content = [f"# {title.strip()}\n"]
        
        # Get main content
        main_content = soup.find('article') or soup.find('main') or soup.find('body')
        
        # Process paragraphs and headers
        for element in main_content.find_all(['p', 'h1', 'h2', 'h3', 'h4', 'h5', 'h6']):
            text = element.get_text().strip()
            if text:
                if element.name.startswith('h'):
                    level = int(element.name[1])
                    content.append(f"\n{'#' * level} {text}\n")
                else:
                    content.append(f"\n{text}\n")
        
        return '\n'.join(content)
    except Exception as e:
        print(f"Error: {str(e)}")
        return None

def generate_filename(url):
    """Generate a filename based on URL and timestamp."""
    timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
    domain = urlparse(url).netloc
    return f"{domain}_{timestamp}.md"

def main():
    # Get URL from user
    url = get_url()
    
    # Fetch markdown content
    print("Fetching content...")
    content = fetch_markdown(url)
    
    if content:
        # Generate filename
        filename = generate_filename(url)
        
        # Write content to file
        try:
            with open(filename, 'w', encoding='utf-8') as f:
                f.write(content)
            print(f"\nSuccess! Content saved to: {filename}")
        except Exception as e:
            print(f"Error saving file: {str(e)}")
    else:
        print("Failed to fetch content from the URL.")

if __name__ == "__main__":
    main()

相关推荐

《每日电讯报》研发数字工具,教你更有效率地报道新闻

为鼓励新闻编辑部持续创新,《每日电讯报》正在尝试有战略地研发数字工具。网站的数字媒体主任马尔科姆o科尔斯(MalcolmColes)表示,《每日电讯报》正试图去“创建一些可持续资产”,以便于让记者们...

html5学得好不好,看掌握多少标签

html5你了解了多少?如果你还是入门阶段的话,或者还是一知半解的话,那么我们专门为你们收集的html5常用的标签大全对你就很有帮助了,你需要了解了html5有哪些标签你才能够更好的。驾驭html5...

前端分享-少年了解过iframe么(我想了解少年)

iframe就像是HTML的「内嵌画布」,允许在页面中加载独立网页,如同在画布上叠加另一幅动态画卷。核心特性包括:独立上下文:每个iframe都拥有独立的DOM/CSS/JS环境(类似浏...

做SEO要知道什么是AJAX(人能看到但搜索引擎看不到的内容)

一个明显的,人能看到但搜索引擎不能看到的内容是AJAX。那么什么是AJAX呢?其实,了解过的基本上也都清楚,AJAX不是新的编程语言,而是一种使用现有标准的新方法。AJAX最大的优点是在不重新加...

介绍最前沿的人工智能创新,‘无反向传播’神经网络训练方法?

图像由GoogleImageFX生成前言:本文整理自NoProp原始论文与实践代码,并结合多个公开实现细节进行了全流程复现。对神经网络训练机制的探索仍在不断演进,如果你也在研究反向传播之...

说说我们对HTML6的期许(对html的看法)

HTML5概述HTML5是HTML语言最受欢迎的版本之一,它支持音频和视频、离线存储、移动端、和标签属性等等。还提供了article,section,header这样的标签来帮助开发者更好...

浏览器中在线预览pdf文件,pdf.mjs插件实现web预览pdf

背景:本来只是淘宝上卖卖袜子,想着扩展一下业务,准备做同名“来家居”海外袜子馆外贸项目,碰到pdf在线预览的需求,就找了pdf.js插件进行实践后把此方法记录下来,可以通过多种方法来实现,每种方法都有...

SVG 在前端的7种使用方法,你还知道哪几种?

本文简介点赞+关注+收藏=学会了技术一直在演变,在网页中使用SVG的方法也层出不穷。每个时期都有对应的最优解。所以我打算把我知道的7种SVG的使用方法列举出来,有备无患~如果你还...

HTML5常用标签大全(html5em标签)

HTML前端开发最终取决于掌握标签的多少HTML大概有七八百个标签楼主这里给大家总结了下HTML常用标签标签描述<!--...-->定义注释。<!DOCTYPE>定义文档类型...

&quot;伪君子Snoop Dogg!&quot;... WHAT?| MetroDaily 24/7

TUE.01-新作品-虽说年纪大了会有点糊涂,但是最近SnoopDogg的这波操作实在是让粉丝们有点迷,甚至有人表示没想到他是这样的"伪君子"......而这一切都源于他近日在IG上Po出的一...

史努比snoopy卡通手机壁纸屏保(史努比壁纸无水印)

...

莎夏·班克斯盼望表哥Snoop Dogg为其作出场曲

NXT女子冠军莎夏·班克斯(SashaBanks)近日接受了迈阿密先驱报采访,访谈纪要如下:关于她出众的形象:“我一向喜欢与众不同。为了能让人眼前一亮,我的装束总是非常前卫、非常抢眼,这样才能让观众...

喜欢Snoop!全球第一间「史努比博物馆」海外分馆在东京!

1950年起,由美國漫畫家CharlesM.Schulz創作的作品《Snoopy》史努比,其鮮明的可愛角色與幽默的劇情內容,至今仍成為許多大朋友與小朋友心中的最愛。為了紀念作者所設立的全球首...

Vetements 推出 Snoop Dogg 肖像「天价」T-Shirt

Vetements的CEOGuramGvasalia早前才透露品牌经营策略的秘密–Vetements如何成为人人热议的话题品牌。但似乎他仍有更多需要解释的东西–这个法国奢侈品牌最新...

狗爷Snoop Dogg的《I Wanna Thank Me》巡回演唱会旧金山站

西海岸匪帮说唱歌手SnoopDogg在《IWannaThankMe》巡回演唱会旧金山站表演(图片来自ICphoto)西海岸匪帮说唱歌手SnoopDogg(图片来自ICphoto)西海...

取消回复欢迎 发表评论: