웹/보안 설정
[JSP] 17. 검색 엔진 중요정보 노출
참두릅
2020. 12. 30. 16:52
취약점
Google 같은 검색엔진은 검색로봇을 이용하여 웹페이지를 수집하고 검색결과에 노출시키는데
이때, 노출되어서는 안되는 정보가 검색엔진에 노출될 수 있다.
따라서, 외부에 공개할 정보의 범위를 제한하는 설정을 해주자!
보안조치
작성해줘야할 파일은 robots.txt
이 파일은 검색엔진에 의해 참고된다.
#cd $Web_Root //웹서버 루트로 이동한다
#vi robots.txt //파일 생성해주자
User-agent: * //모든 검색엔진을 지정한다 구글:Googlebot
Disallow: / //적용할 디렉토리를 지정 웹루트로부터 하위 디렉토리를 포함
User-agent: * //모든 검색엔진이 수집하는 것을 허용
allow: /
User-agent: Googlebot //구글 엔진만 허용
Allow: /
User-agent: Naverbot //네이버 엔진만 허용
Allow: /
그밖에 엔진들
Daumoa
Msnbot
Bingbot
마무리
robots.txt 파일은 텍스트 파일로서 누구나 URL을 통해서 열람이 가능한 파일이므로 관리자 페이지경로와 같은 민감한 경로는 포함해서는 안됨
(예를들어, Disallow : /admin/admin.jsp)