Web Hacking/BWAPP

비박스(bWAPP) - Robots File

ruming 2020. 11. 22. 19:02
Quest. robots.txt을 공부해봅시다.

웹 크롤러같은 로봇의 접근을 관리하는 것

페이지가 검색엔진에 노출이 되게 혹은 안되게 할 수 있다.

 

사용법 : 웹사이트의 최상위 디렉토리에 적용

ex) 웹사이트주소/robots.txt

 

robots.txt 

User-agent : 검색봇 이름
Disallow : 검색 금지
Allow : 검색 허용
Crawl-delay : 다음 방문까지의 딜레이

모든 검색봇 차단
User-agent : *
Disallow : /

모든 봇을 허용
User-agent : *
Disallow : 
Allow : /

 

User-agent → 봇의 이름을 적음 

*(Asterisk) : 와일드카드로 모든 봇들을 지칭

Disallow : 봇의 접근을 막고자 하는 url을 적음

Allow : 접근을 허용하는 url을 적음

모든 것을 의미할 때 User-agent는 *로, Disallow와 Allow 필드는 공란으로 적는다.

 

 

난이도 : low

Robots File의 화면

 

Quest. admin 정보와 password 정보를 확인해봅시다.

 

admin 정보

 

passwords 정보

 

 

 

 

 

server-talk.tistory.com/93

 

robots.txt 소개와 사용법

robots.txt 소개와 사용법 robots.txt robots.txt란? 인터넷 검색엔진 배제 표준(Robots Exclusion Protocol)이란 보안이 필요한 내용이 검색엔진에 유출되지 못하도록 웹 페이지를 작성하는 방법을 기술한 국제

server-talk.tistory.com

 

multifrontgarden.tistory.com/209

 

robots.txt

크롤링 봇들은 항상 웹을 탐색하고다닌다. 전 회사에 재직중인시절 모니터링 시스템에 로그인하지않은 사용자가 자꾸 특정 api를 요청한다는 알림이 와서 봤더니 google bot 이라는 user agent를 담고

multifrontgarden.tistory.com

limelightkr.co.kr/robots-txt-%EA%B7%B8%EA%B2%8C-%EB%AD%90%EC%A3%A0/

 

Robots.txt 그게 뭐죠? - 라임라이트 블로그

Robots.txt 파일이란 웹 크롤러(Web Crawlers)와 같은 착한 로봇들의 행동을 관리하는 것을 말합니다. 우리가 이 로봇들을…

limelightkr.co.kr