웹/보안 설정

[JSP] 17. 검색 엔진 중요정보 노출

참두릅 2020. 12. 30. 16:52

취약점

Google 같은 검색엔진은 검색로봇을 이용하여 웹페이지를 수집하고 검색결과에 노출시키는데

이때, 노출되어서는 안되는 정보가 검색엔진에 노출될 수 있다.

 

따라서, 외부에 공개할 정보의 범위를 제한하는 설정을 해주자!

 

보안조치

작성해줘야할 파일은 robots.txt

이 파일은 검색엔진에 의해 참고된다.

 

#cd $Web_Root	//웹서버 루트로 이동한다

#vi robots.txt	//파일 생성해주자
User-agent: *	//모든 검색엔진을 지정한다 구글:Googlebot 
Disallow: /	//적용할 디렉토리를 지정 웹루트로부터 하위 디렉토리를 포함

User-agent: *	//모든 검색엔진이 수집하는 것을 허용
allow: /

User-agent: Googlebot	//구글 엔진만 허용
Allow: /

User-agent: Naverbot	//네이버 엔진만 허용
Allow: /

그밖에 엔진들
Daumoa
Msnbot
Bingbot

 

 

마무리

robots.txt 파일은 텍스트 파일로서 누구나 URL을 통해서 열람이 가능한 파일이므로 관리자 페이지경로와 같은 민감한 경로는 포함해서는 안됨

(예를들어, Disallow : /admin/admin.jsp)

 

 

참조