paint-brush
AI 가상 실험: 하루 동안 내가 사용하는 모든 AI 도구 차단~에 의해@buzzpy
492 판독값
492 판독값

AI 가상 실험: 하루 동안 내가 사용하는 모든 AI 도구 차단

~에 의해 Chenuli J.7m2025/02/23
Read on Terminal Reader

너무 오래; 읽다

Programming and Doodles 블로그는 프로그래밍 세계에서 무슨 일이 일어나고 있는지에 대한 주간, 색다른 시각을 제공합니다. 이번 주에는 가짜 실험을 살펴보겠습니다. 제가 사용하는 모든 AI 도구를 차단하면서도 기술 작가로 일합니다.
featured image - AI 가상 실험: 하루 동안 내가 사용하는 모든 AI 도구 차단
Chenuli J. HackerNoon profile picture


https://codedoodles.substack.com/p/do-not-open


안녕하세요, 아름다운 사람들!


Programming and Doodles 블로그에 오신 것을 환영합니다! 이 글에서는 가짜 실험의 결과를 보여드리겠습니다. 제가 사용하는 모든 AI 도구를 차단하면서도 (개발자이자 기술 작가로서) 평범한 날처럼 일하는 것입니다.


다음 내용을 이메일로 직접 받아보려면 구독하세요: https://codedoodles.substack.com/


ChatGPT와 다른 AI 챗봇과 도구가 출시된 이후로 우리는 점차 작업에 대한 통제력을 잃었습니다. 코드, 이메일, 심지어 짧은 메시지를 작성하고 디버깅하는 데 사용하면서 이런 시나리오가 발생했을 것입니다. 더 나쁜 것은 "연구에 따르면 AI를 사용하면 비판적 사고 능력이 저하됩니다."라는 게시물을 보고 있다는 것입니다. 저는 걱정했습니다. ChatGPT가 출시되기 전인 2020-22년에 제가 가졌던 기술을 여전히 가지고 있을까요?


저는 동의할 수 없습니다. AI 도구는 많은 시간을 절약하고 생산성을 높입니다. 하지만 어떤 대가를 치르게 될까요? 우리가 스스로 생각하고 문제를 해결하는 능력을 천천히 잃어가고 있다면, 우리는 인류에게 주어진 가장 위대한 선물 중 하나를 망치고 있는 것입니다.


하지만 이 글을 읽고 오해하지 마세요. 저는 AI를 싫어하지 않습니다. 저는 그것이 프로그래머가 실현한 놀라운 개념이라고 생각하고, 우리 모두가 그것을 정기적으로 사용합니다. 지금도 제 Grammarly 확장 프로그램은 AI를 사용하여 이 문장들을 개선하는 방법을 보여줍니다. 제가 싫어하는 유일한 것은 우리가 그것에 지나치게 의존하는 방식입니다. 젠장, 이에 대해 또 다른 기사를 써야겠어요!

실험에 대하여

문맥으로 돌아가서, 저는 제 일을 하는 데 AI를 얼마나 많이 사용하는지에 약간 실망했고 하루 동안 모든 AI 도구를 차단하기로 했습니다 . 다행히도 저는 제 MacBook에 이 앱들을 하나도 다운로드하지 않았기 때문에, 제가 해야 할 일은 ChatGPT, Claude, Gemini, DeepSeek를 차단하는 확장 프로그램을 얻는 것뿐이었습니다.


이 글은 작업과 동시에 작성 되었고, 편집 단계에서 조금… 이상해 보인다는 것을 깨달았습니다. 그것은 ChatGPT의 추론과 같은 저의 어리석은 인간 뇌의 "생각" 과정입니다. 이 글에서 저를 판단하지 말아주시기를 부탁드립니다.

 Date: Feb 17th, 2025 The to-do list: - Write a script to scrape Bing Search results (for a tutorial on building a scraper). - Review the PR #6 on GitHub. - Improve SEO of my personal site, chenuli.codedoodles.xyz (current SEO score was 85) - If more time's left, design a merch product.

(할 일 목록이 참 작은데, 네, 저는 제 자신이 상사이거든요)

스크립트 작성

파이썬에서 웹 스크래핑은 작성할 수 있는 가장 쉬운 프로그램 중 하나이지만 종종 간과됩니다. 저는 Apify로 TikTok과 같은 다양한 플랫폼을 스크래핑하는 것에 대한 3~4개의 기사를 썼지만, 스크립트를 작성하기 위해 ChatGPT에서 프롬프트 한두 개만 있으면 되었습니다.

 Write a python script using selenium and chromedriver to scrape "Trending Videos" page on TikTok. Structure: Page consists of a card-like structure which consists of trending videos on TikTok. These are inside a <div> container with the class of tiktok-559e6k-DivItemContainer e1aajktk28 blah blah and blah

하지만 이번에는 다릅니다. 먼저 스크립트의 기본을 작성하고, 테스트하고, 필요에 따라 최적화합니다.


저는 Playwright, selenium, 아니면 beautiful soup 중 어떤 라이브러리를 사용할지 결정하는 데 몇 분을 보냈습니다. Beautifulsoup이 가장 쉽고 간단한 옵션처럼 보였기 때문에 그걸로 했습니다.

 import requests from bs4 import BeautifulSoup 



그러면 봇 보호(또는 CAPTCHA)에 의해 차단되지 않도록 실제 브라우저 요청을 모방한 헤더를 작성해야 합니다. 제가 직접 정확하게 작성하는 것은 약간 불가능하므로 ChatGPT를 무의식적으로 열었습니다. 무섭긴 하지만, 최선을 다해 차단되었습니다.


오랜만에 구글에서 샘플 요청을 했습니다. 정말 생명의 은인이네요.

 headers={"User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"}

그럼 아마 Bing에서 사용하는 것과 같은 검색 링크를 만들어야 할 것 같아요. Google과 비슷해야겠죠.


흠, 나쁘지 않네요


개별적으로 스크래핑하려면 클래스 변수(이게 무슨 뜻인가요?)를 식별해야 합니다.


Bing은 이 부분에서 깔끔한 작업을 합니다. 결과는 <ol> 목록 구조로 되어 있고, 각 목록 항목은 단일 검색 결과입니다. 그러면 훨씬 수월해집니다. 이 모든 <li> 항목을 페이지에서 스크래핑하여 하나의 변수에 할당한 다음 루프를 사용하여 제목과 링크를 명확하게 포맷할 수 있습니다. 깔끔하죠! 천재적인 방법은 아니지만, 적어도 생각하는 능력을 완전히 잃은 것은 아닙니다.

 completeData = soup.find_all("li",{"class":"b_algo"})

아, 맙소사, 멍청하네! 그냥 불필요한 루프를 사용하고 재사용도 안 돼.


우리는 그냥 아이템 목록 자체를 반복할 수 있습니다. 그리고 오류 처리도 추가해 보겠습니다.

 for item in soup.find_all("li", class_="b_algo"): title = item.find("h2") link = title.find("a")["href"] if title else "" results.append((title.text if title else "No title", link)) if response.status_code != 200: print("Failed to retrieve search results") return []


훨씬 나아졌네요. 마지막으로, 우리는 다른 루프를 추가하여 결과를 적절히 포맷하고 인쇄할 수 있습니다.

 search_results = scrape_bing("Programming and Doodles") for title, link in search_results: print(f"{title}: {link}")


두 가지 작은 구문 오류가 발생한 후에야 작동합니다!



정말 굉장했어요. 옛날 좋은 시절처럼요.

GitHub에서 PR 검토

오래 걸리지 않을 겁니다. 그냥 긴 파이썬 스크립트일 뿐이에요.


착한 친구군요!


PR을 보면 코드가 작업에 방해가 되지 않았습니다. 하지만 요소가 제가 만든 원래 것과 같이 중앙에 있지 않습니다. 하지만 이 PR을 검토하는 건 두 번째이고 이 기여자는 새로운 것 같습니다. 다시 변경을 요청하는 건 기분 나쁠 것 같고, 제가 직접 수정하고 좋은 리뷰를 남길 겁니다.


코드를 검사해보니 그는 좋은 일을 했습니다. 하지만 어떤 이유에서인지 그는 GUI에 스티키 변수를 넣었을 겁니다. 제가 제거해 보겠습니다.


음, 여전히 작동하지 않아요. tkinter에 요소 중앙 정렬을 지원하는 것이 있어야 합니다.


rel 키워드는 기억나는데, 모든 엘리먼트에 추가하는 건 지겹다. 구글의 대부분 결과도 같은 방식으로 표시된다.


오, 하나 찾았네요! 그냥 grid_columnconfigure를 사용하면 됩니다. StackOverflow의 bitRAKE에게 감사드립니다.


휴, 2025년에는 AI 없이도 개발자로서 잘 살아갈 수 있겠다.

SEO 개선

저는 최근 개인 웹사이트(포트폴리오 아님)를 만들었는데, SEO 점수가 좀 나빴어요.


SEO를 개선하기 위해 제가 주로 사용하는 방법은 항상 구조화된 데이터(스키마 마크업)를 사용하여 풍부한 결과를 얻는 것입니다. 모르셨다면, 이것은 검색 엔진이 귀하의 콘텐츠를 더 잘 이해하도록 돕는 메타데이터의 한 형태로, 풍부한 스니펫, FAQ, 지식 패널과 같은 향상된 검색 결과 기능으로 이어집니다. 귀하의 사이트의 SEO가 100이 아니라면, 풍부한 결과를 활성화하면 100이 될 수 있습니다.


이건 제가 ChatGPT에 부탁할 일이에요. 제가 콘텐츠를 쓰고 적절한 구문을 사용하도록 부탁할 거예요. 그러면 걸리는 시간이 크게 줄어들지만, 차단되어 있으니 제가 직접 써야겠다고 생각했어요.


아니면 내 메인 사이트인 codedoodles.xyz에서 스키마 마크업을 복사/붙여넣기해서 바꿀 수도 있습니다. 어쨌든 내 코드입니다.



게다가 FAQ 섹션도 추가할 수 있습니다. 하지만 Google 정책에 웹사이트에 표시되지 않는 콘텐츠에 스키마 마크업을 추가할 수 없다고 나와 있다는 것을 읽은 기억이 납니다. 당연히 제 웹사이트에는 FAQ 섹션이 없습니다.


하지만 괜찮습니다. 여전히 "Chenuli Jayasinghe는 누구인가"와 같은 질문을 추가할 수 있고, 그 답변은 웹사이트의 내용을 요약한 것이 될 것입니다. 윈윈!



훌륭해 보이네요. 배치 후 점수가 올라갈 겁니다.



음, 나쁘지 않지만 더 올라갈 수 있겠네요. 모회사 웹사이트인 codedoodles.xyz가 100점을 받았으니 이것도 그래야죠. 이 지점에서 ChatGPT나 DeepSeek에 제안을 요청해야겠지만, 잠깐만요, 제게는 이점이 있어요. codedoodles.xyz의 코드를 확인하면 100점을 주는 이유를 알 수 있거든요.


오픈그래프? 완료.


트위터 카드? 완료.


스키마 마크업? 또한 완료되었습니다.


그 밖에 뭐요! 그럼 몇 가지 키워드를 더 추가해 볼까요.


아직도 똑같네요.


오, 그렇군요. 이미지에 대한 `alt` 설명을 놓친 것 같아요.


아니요, 저도 추가했습니다. 젠장, 제가 얼마나 멍청할 수 있을까요? Lighthouse 보고서 자체에 자세한 내용이 나와 있습니다.


robots.txt 파일이 문제입니다. 웹사이트 codedoodles.xyz와 chenuli.codedoodles.xyz는 동일한 구조를 사용하므로 복사-붙여넣기 작업을 할 수 있을 것입니다. 다시 한 번.


마치 옛날처럼요.


네! 지금은 100이에요.



그리고 그게 전부여야 합니다. 상품을 디자인하는 것은 AI 챗봇과 아무 상관이 없고, 저는 그 일을 견뎌냈습니다. 책을 읽을 시간입니다, 훌륭한 개발자!

요약


AI가 없는 멍청하고 무력한 개발자라는 내 가정은 거짓이었고, 나는 그것에 대해 기쁩니다. 비판적 사고가 영향을 받았을지 몰라도(몇 가지 어리석은 실수를 했습니다), 나는 여전히 일을 처리할 수 있습니다. 전체 프로세스는 평소보다 더 오래 걸렸습니다. 특히 스크래핑 스크립트를 작성하는 데 시간이 많이 걸렸지만, 더 보람을 느꼈습니다. 차고에서 오래된 자전거를 발견하고 타는 법을 잊지 않았다는 것을 깨닫는 것과 같습니다.


물론, 저는 ChatGPT를 무의식적으로 몇 번 열었고, 네, 구글링과 복사/붙여넣기는 약간 죄책감을 느꼈습니다. 하지만, 그게 2022년 이전에 우리가 코딩했던 방식이잖아요, 그렇죠? Stack Overflow와 설명서는 우리의 가장 친한 친구였고, 지금도 완벽하게 잘 작동합니다.


가장 중요한 요점은 AI 도구를 사용하는 것이 전적으로 괜찮고 이해할 수 있다는 것입니다. 하지만 가끔은 제가 방금 한 것처럼 하세요. LLM을 차단하고 직접 작업해보세요. 기분이 좋아질 거예요, 믿으세요.


그리고 제발, Reddit의 이 사람처럼 되지 마세요. 두뇌를 사용하세요.