취약점
Google 같은 검색엔진은 검색로봇을 이용하여 웹페이지를 수집하고 검색결과에 노출시키는데
이때, 노출되어서는 안되는 정보가 검색엔진에 노출될 수 있다.
따라서, 외부에 공개할 정보의 범위를 제한하는 설정을 해주자!
보안조치
작성해줘야할 파일은 robots.txt
이 파일은 검색엔진에 의해 참고된다.
#cd $Web_Root //웹서버 루트로 이동한다
#vi robots.txt //파일 생성해주자
User-agent: * //모든 검색엔진을 지정한다 구글:Googlebot
Disallow: / //적용할 디렉토리를 지정 웹루트로부터 하위 디렉토리를 포함
User-agent: * //모든 검색엔진이 수집하는 것을 허용
allow: /
User-agent: Googlebot //구글 엔진만 허용
Allow: /
User-agent: Naverbot //네이버 엔진만 허용
Allow: /
그밖에 엔진들
Daumoa
Msnbot
Bingbot
마무리
robots.txt 파일은 텍스트 파일로서 누구나 URL을 통해서 열람이 가능한 파일이므로 관리자 페이지경로와 같은 민감한 경로는 포함해서는 안됨
(예를들어, Disallow : /admin/admin.jsp)
참조
'웹 > 보안 설정' 카테고리의 다른 글
[JSP] 16. WebDAV 취약점 (0) | 2020.12.30 |
---|---|
[JSP] 14. 사용자 정보 및 기타 중요 정보 노출 (0) | 2020.12.30 |
[JSP] 12. 에러 페이지 미비 (0) | 2020.12.28 |
[JSP] 11. 백업파일 (0) | 2020.12.27 |
[JSP] 10. 디폴트 페이지 (0) | 2020.12.27 |