Quest. robots.txt을 공부해봅시다.
웹 크롤러같은 로봇의 접근을 관리하는 것
페이지가 검색엔진에 노출이 되게 혹은 안되게 할 수 있다.
사용법 : 웹사이트의 최상위 디렉토리에 적용
ex) 웹사이트주소/robots.txt
robots.txt
User-agent : 검색봇 이름
Disallow : 검색 금지
Allow : 검색 허용
Crawl-delay : 다음 방문까지의 딜레이
모든 검색봇 차단
User-agent : *
Disallow : /
모든 봇을 허용
User-agent : *
Disallow :
Allow : /
User-agent → 봇의 이름을 적음
*(Asterisk) : 와일드카드로 모든 봇들을 지칭
Disallow : 봇의 접근을 막고자 하는 url을 적음
Allow : 접근을 허용하는 url을 적음
모든 것을 의미할 때 User-agent는 *로, Disallow와 Allow 필드는 공란으로 적는다.
난이도 : low
Quest. admin 정보와 password 정보를 확인해봅시다.
multifrontgarden.tistory.com/209
limelightkr.co.kr/robots-txt-%EA%B7%B8%EA%B2%8C-%EB%AD%90%EC%A3%A0/
'Web Hacking > BWAPP' 카테고리의 다른 글
[bWAPP(비박스)] SQL Injection (GET/Select) (0) | 2023.03.08 |
---|---|
비박스(BWAPP) Broken Auth - Insecure Login Forms (0) | 2020.11.16 |
비박스(BWAPP) SQL Injection - Login Form/Hero (0) | 2020.11.16 |
비박스(BWAPP) SQL Injection - GET/Search (0) | 2020.11.02 |