
Hello orang cantik!
Selamat datang ke blog Pengaturcaraan dan Coretan! Dalam artikel ini, saya akan membentangkan kepada anda hasil eksperimen pseudo: menyekat semua alatan AI yang saya gunakan dan masih berfungsi seperti pada hari biasa (sebagai pembangun dan penulis teknikal).
Langgan untuk menerima ini terus ke dalam peti masuk anda: https://codedoodles.substack.com/
Sejak ChatGPT dan chatbot dan alatan AI lain dikeluarkan, kami secara beransur-ansur kehilangan cengkaman kerja kami. Menggunakannya untuk menulis dan menyahpepijat kod, e-mel dan juga mesej ringkas, mungkin mengakibatkan senario ini. Lebih teruk lagi, saya telah melihat siaran yang menyatakan "Penyelidikan menunjukkan bahawa menggunakan AI mengurangkan keupayaan pemikiran kritis kita." Itu membimbangkan saya: adakah saya masih mempunyai kemahiran yang saya miliki, pada 2020-22 sebelum keluaran ChatGPT?
Saya tidak boleh tidak bersetuju: Alat AI menjimatkan banyak masa dan meningkatkan produktiviti. Tetapi pada kos berapa? Jika kita perlahan-lahan kehilangan keupayaan untuk berfikir dan menyelesaikan masalah sendiri, kita merosakkan salah satu hadiah terbesar kepada manusia.
Walau bagaimanapun, membaca ini, jangan salah faham: Saya tidak benci AI. Saya fikir ia adalah konsep yang menakjubkan yang dihidupkan oleh pengaturcara, dan kita semua menggunakannya dengan kerap. Malah sekarang, sambungan Grammarly saya menunjukkan kepada saya cara untuk memperbaiki ayat ini menggunakan AI. Satu-satunya perkara yang saya tidak suka ialah cara kita terlalu bergantung pada mereka. Tembak, saya harus menulis artikel lain tentang ini!
Kembali ke konteks, saya agak kecewa dengan cara saya menggunakan AI untuk melakukan kerja saya dan memutuskan untuk menyekat setiap alat AI selama sehari . Nasib baik, saya tidak memuat turun mana-mana apl ini pada MacBook saya, jadi apa yang perlu saya lakukan ialah mendapatkan sambungan untuk menyekat ChatGPT, Claude, Gemini dan DeepSeek.
Artikel ini ditulis serentak dengan kerja , dan dalam fasa penyuntingan, saya menyedari ia kelihatan agak… pelik. Ia adalah proses "berfikir" otak manusia bodoh saya, seperti Penaakulan ChatGPT. Saya dengan ini meminta anda untuk tidak menilai saya daripada artikel ini.
Date: Feb 17th, 2025 The to-do list: - Write a script to scrape Bing Search results (for a tutorial on building a scraper). - Review the PR #6 on GitHub. - Improve SEO of my personal site, chenuli.codedoodles.xyz (current SEO score was 85) - If more time's left, design a merch product.
(senarai tugasan yang kecil, ya, saya bos saya sendiri)
Mengikis web dalam Python ialah salah satu program paling mudah yang boleh anda tulis dan sering diabaikan. Saya telah menulis kira-kira 3-4 artikel tentang mengikis pelbagai platform seperti TikTok dengan Apify, tetapi yang diperlukan hanyalah satu atau dua gesaan di ChatGPT untuk menulis skrip:
Write a python script using selenium and chromedriver to scrape "Trending Videos" page on TikTok. Structure: Page consists of a card-like structure which consists of trending videos on TikTok. These are inside a <div> container with the class of tiktok-559e6k-DivItemContainer e1aajktk28 blah blah and blah
Tetapi kali ini berbeza. Saya akan menulis asas skrip dahulu, mengujinya, dan mengoptimumkannya mengikut keperluan.
Saya meluangkan masa beberapa minit untuk memutuskan perpustakaan mana yang hendak digunakan: Penulis drama, selenium atau sup cantik. Beautifulsoup nampaknya pilihan yang paling mudah dan ringkas jadi saya ikutkannya.
import requests from bs4 import BeautifulSoup
Saya kemudiannya harus menulis tajuk yang meniru permintaan penyemak imbas sebenar, untuk tidak disekat oleh perlindungan bot (atau CAPTCHA). Agak mustahil untuk saya menulisnya sendiri dengan tepat, jadi saya membuka ChatGPT secara tidak sengaja . Menakutkan, ya, tetapi ia disekat untuk yang terbaik.
Selepas sekian lama, saya menggunakan Google untuk permintaan sampel. Sungguh penyelamat.
headers={"User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"}
Kemudian saya mungkin perlu membuat pautan carian seperti yang digunakan oleh Bing. Mesti serupa Google agaknya.
Saya harus mengenal pasti pembolehubah kelas (itulah yang anda panggil) untuk mengikisnya secara individu.
Bing melakukan kerja yang kemas dalam hal ini. Hasilnya adalah dalam struktur senarai, <ol>
, dengan setiap item senarai menjadi hasil carian tunggal. Itu menjadikan perkara lebih mudah. Saya boleh mengikis semua <li> item ini dari halaman dan menetapkannya kepada satu pembolehubah, dan kemudian menggunakan gelung, saya boleh memformatkan tajuk dan pautan dengan jelas. kemas! Bukan kaedah yang genius, tetapi saya tidak kehilangan keupayaan saya untuk berfikir, sekurang-kurangnya.
completeData = soup.find_all("li",{"class":"b_algo"})
Oh tembak, itu bodoh! Ia hanya menggunakan gelung yang tidak perlu dan tidak boleh digunakan semula sama ada.
Kita hanya boleh menggelungkan senarai item itu sendiri. Dan mari tambah beberapa pengendalian ralat juga.
for item in soup.find_all("li", class_="b_algo"): title = item.find("h2") link = title.find("a")["href"] if title else "" results.append((title.text if title else "No title", link)) if response.status_code != 200: print("Failed to retrieve search results") return []
Itu lebih baik. Akhir sekali, kita boleh menambah satu lagi gelung untuk memformat dan mencetak hasilnya dengan sewajarnya.
search_results = scrape_bing("Programming and Doodles") for title, link in search_results: print(f"{title}: {link}")
Dua ralat sintaks kecil kemudian, ia berfungsi!
Itu terasa hebat. Sama seperti zaman dahulu yang indah.
Ini tidak sepatutnya mengambil masa yang lama. Ia hanya skrip Python yang panjang.
Melihat kepada PR, kod itu tidak mengganggu operasi. Walau bagaimanapun, unsur-unsur tidak berpusat seperti asal yang saya cipta. Tetapi ini adalah kali ke-2 saya menyemak PR ini dan penyumbang ini nampaknya baru. Meminta perubahan sekali lagi tidak menyenangkan, saya hanya akan membetulkannya sendiri dan memberikan ulasan yang baik.
Memeriksa kod, dia telah melakukan kerja yang baik. Tetapi atas sebab tertentu, dia mesti meletakkan pembolehubah melekit pada GUI. Biar saya keluarkan itu.
Humm, masih tidak berfungsi. Harus ada sesuatu dalam tkinter yang menyokong elemen pemusatan.
Saya masih ingat kata kunci rel, tetapi ia memenatkan untuk menambahkannya pada semua elemen. Kebanyakan hasil di Google menunjukkan cara yang sama.
Oh, jumpa satu! Kita hanya boleh menggunakan grid_columnconfigure untuknya. Terima kasih, bitRAKE pada StackOverflow.
Fuh, saya boleh bertahan dengan baik tanpa AI sebagai pembangun pada tahun 2025.
Saya baru-baru ini membina laman web peribadi (bukan portfolio), tetapi skor SEOnya agak teruk.
Cara utama saya untuk meningkatkan SEO ialah sentiasa menggunakan data berstruktur (penanda skema), untuk hasil yang kaya. Jika anda tidak sedar, ini adalah satu bentuk metadata yang membantu enjin carian memahami kandungan anda dengan lebih baik, yang membawa kepada ciri hasil carian yang dipertingkatkan seperti coretan kaya, Soalan Lazim dan panel pengetahuan. Jika SEO tapak anda bukan 100, mendayakan hasil kaya mungkin akan menjadikannya 100.
Ini adalah sesuatu yang saya minta ChatGPT lakukan; Saya akan menulis kandungan dan memintanya menggunakan sintaks yang betul. Ia sangat mengurangkan masa yang diambil, tetapi kerana ia disekat, saya fikir saya akan menulisnya sendiri.
Atau saya boleh menyalin/menampal penanda skema daripada tapak utama saya, codedoodles.xyz dan menukarnya. Ini kod saya, bagaimanapun.
Lebih-lebih lagi, saya juga boleh menambah bahagian FAQ. Tetapi saya masih ingat membaca bahawa dasar Google menyatakan anda tidak boleh menambah penanda skema untuk kandungan yang tidak kelihatan di tapak web. Jelas sekali, tapak web saya tidak mempunyai bahagian Soalan Lazim.
Tetapi tidak mengapa. Saya masih boleh menambah soalan seperti "Siapa Chenuli Jayasinghe", dan jawapannya ialah ringkasan kandungan di tapak web. Menang-menang!
Nampak hebat. Markah sepatutnya meningkat selepas penggunaan.
Humm, tidak teruk tetapi ia boleh pergi lebih jauh; tapak web induk, codedoodles.xyz mendapat 100 jadi sepatutnya ini. Inilah perkara yang saya akan meminta cadangan ChatGPT atau DeepSeek tetapi tunggu, saya mempunyai kelebihan— saya boleh menyemak kod codedoodles.xyz untuk mengetahui apa yang menjadikannya 100.
Opengraph? Selesai.
kad Twitter? Selesai.
Penanda skema? Selesai juga.
apa lagi! Izinkan saya menambah beberapa kata kunci lagi.
Masih sama.
Oh ya, saya pasti terlepas penerangan `alt` untuk imej.
Tidak, saya telah menambahnya juga. Dang, betapa bodohnya saya? Laporan Rumah Api itu sendiri menunjukkan butirannya.
fail robots.txt adalah isunya. Tapak web codedoodles.xyz dan chenuli.codedoodles.xyz menggunakan struktur yang sama, jadi saya sepatutnya boleh melakukan beberapa kerja salin-tampal. sekali lagi.
Sama seperti zaman dahulu yang indah.
Yeah! Ia 100 sekarang.
Dan itu sepatutnya. Mereka bentuk barang niaga tidak ada kena mengena dengan AI chatbots, dan saya bertahan dalam kerja itu. Masa untuk membaca buku, pembangun yang hebat!
Andaian saya sebagai pembangun yang bodoh dan tidak berdaya tanpa AI adalah palsu, dan saya gembira mengenainya. Walaupun pemikiran kritis saya mungkin terjejas (saya melakukan beberapa kesilapan bodoh), saya masih boleh menyelesaikannya. Keseluruhan proses mengambil masa lebih lama daripada biasa - terutamanya menulis skrip mengikis itu - tetapi rasanya lebih bermanfaat. Seperti mencari basikal lama anda di garaj dan menyedari anda tidak lupa cara menunggangnya.
Dan pastinya, saya membuka ChatGPT secara tidak sengaja beberapa kali, dan ya, googling dan menyalin/menampal berasa agak bersalah. Tetapi hei, begitulah cara kami mengekod sebelum 2022, bukan? Stack Overflow dan dokumentasi adalah kawan baik kami, dan mereka masih berfungsi dengan baik.
Perkara utama ialah penggunaan alat AI adalah baik dan boleh difahami. Tetapi sekali-sekala, lakukan apa yang saya baru lakukan: sekat LLM tersebut dan cuba lakukan sendiri. Anda akan berasa hebat, percayalah.
Dan tolong, jangan jadi seperti lelaki ini di Reddit. Gunakan otak anda.