잡다한 배똥월드

728x90

1. 배너 그래빙(banner grabbing) : 서버의 응답을 통해 정보를 수집하는 방법

    - 응답 메세지의 서버 헤더를 살펴보는 것

    - 개발자 도구의 네트워트 탭 -> 전송된 내역의 응답 메세지 정보 확인 (버프 스위트의 프록시 히스토리 기능에서도 확인 가능)

 

 

 

2. 기본 설치 파일로 인한 노출

- 웹 애플리케이션을 운영하기 위한 웹 서버, 웹 프레임워크, 기타 구성 요소를 설치할 때 기본으로 설치되는 파일로 인해 호스트 환경에 대한 정보가 노출되는 경우가 있음

 

 

 

3. 웹 취약점 스캐닝

    - 자동화된 프로그램을 이용하여 웹사이트의 여러 가지 정보를 수집하고 이 정보들을 바탕으로 어떤 취약점이 있는지 알아내는 과정

    - 칼리 리눅스 기본 프로그램 중 nikto1이라는 프로그램을 이용하면 간단한 명령으로 중요한 정보를 쉽게 수집할 수 있음

    - 터미널에 nikto를 입력하면 프로그램 사용을 위한 옵션 확인 가능

    - 명령어 : nikto -host 192.168.56.103

    => 빨간 박스에서 아래의 정보들을 얻을 수 있음

        - 서버 헤더 및 PHP, 아파치 OpenSSL 등의 버전이 오래되었다(outdate)

        - 보안 관련 헤더가 설정되어 있지 않다

        - 허용된 메소드 목록 정보

        - /icons/, /images/ 경로에서 디렉터리 인덱싱이 발견되었다

        - phpMyAdmin 디렉터리가 발견되었다

 

 

 

4. 디렉터리 인덱싱

    - 웹 서버의 잘못된 설정으로 웹 서버 디렉터리의 파일들이 노출되는 취약점

위의 경우는 icon 폴더의 파일이라서 괜찮은데, 소스코드나 개인정보가 노출되는 경우가 있기 때문에 심각한 상황이 될 수 있음

 

 

 

5. 웹 애플리케이션 매핑

    - 마치 웹 애플리케이션의 지도를 그리듯, 웹 애플리케이션의 메뉴와 링크를 따라가면서 어떤 URL과 파라미터들이 전송되는지 구조를 파악하는 과정

    - 어떤 기능을 가지고 있는지, 각 기능이 어떻게 동작하는지 쉽게 이해 가능 => 공격 지점 찾을 수 있음

 

 

 

6.  수동 매핑

    - 직접 웹 애플리케이션에 접속하여 각 메뉴를 확인하는 과정

    - 버프 스위트의 사이트 맵 기능을 활용할 수 있는데, 화면에 표시되지 않는 URL들도 자동으로 표시되기 때문에 웹 애플리케이션의 구조를 파악하는 데 많은 도움이 됨

 

 

 

7. 크롤링(crawling)

    - 웹 페이지의 링크를 분석하여 새로운 웹 페이지를 찾아내는 과정

    - 웹 애플리케이션 매핑 과정을 자동으로 수행 가능

    - 순서 :

        ○ 처음 지정된 URL로 요청

        ○ 처음 요청에 의해 전송받은 응답 메세지를 분석하고 응답에 포함된 링크를 각각 추가로 요청

        ○ 더 이상 링크를 찾을 수 없거나 404, 500 등과 같은 에러 메세지가 응답될 때까지 과정 반복

 

 

 

8. DirBuster

    - URL 목록 파일을 사용하여 각 URL을 자동으로 입력해보는 방식으로 구조 파악

터미널에서 dirbuster을 입력하여 프로그램 열기

 

 

 

8-1. 브루트 포스 공격

    - 목록 파일을 사용하여 정보를 찾는 기법

    - 주로 사용자의 패스워드를 찾는데 사용하는 기법

 

 

 

9. robots.txt

    - 웹 로봇 역시 크롤러(크롤링 프로그램)의 일종

    - 웹사이트 운영자는 robots.txt 파일을 웹사이트의 가장 상위 디렉터리에 위치시켜, 웹 로봇에게 해당 웹사이트의 정보 수집을 허용하거나 불허하는 명령을 내릴 수 있음

bWAPP robots.txt 파일

    - 위의 화면에서 알 수 있는 것

        ○ User-agent가 GootBot인 로봇의 수집을 불허하지 않음

        ○ User-agent가 BadBot인 로봇은 모든 페이지에 대한 수집을 불허함

        ○ 모든 로봇은 /admin/, /documents/, /images/, /passwords/ 디렉터리에 대한 수집을 불허함

    - robots.txt의 내용을 따를지 말지 결정하는 것은 전적으로 웹 로봇에게 달려 있음

    - 중요한 경로가 노출될 수 있기 때문에 robots.txt 파일을 이용하여 보안 정책을 적용하려고 해서는 안 됨.

 

 

 

 

 

728x90
728x90

 

 

 

 

 

파이어 폭스 프록시가 켜진 상태에서 https 사이트에 들어가려고 하면 접속 에러가 뜰 것 입니다.

네이버에 진입하는 것부터 막히는데, 이러한 상황을 해결하려고 합니다.

 

 

 

 

 

 

먼저 파이어폭스에서 http:s//burp에 접속합니다.

 

 

 

 

 

 

burp 사이트 입장했다면 오른쪽 상단의 CA Certificate 메뉴를 클릭한 후, CA 인증서를 다운 받습니다.

 

 

 

 

 

 

정상적으로 다운로드 되었다면 Downloads 폴더에서 cacert.der이란 파일이 있을 것입니다.

 

 

 

 

 

 

이렇게 다운 받은 CA 인증서를 파이어폭스에 가져와야하는데, 파이어폭스 설정에 들어가서 certificates를 검색하여 View Certificates 버튼을 찾습니다.

 

 

 

 

 

 

올바르게 왔다면 아래와 같은 화면이 뜰 것입니다.

 

 

 

 

 

해당 화면에서 스크롤을 조금 내리면 Import가 있으며, 이것을 눌러 CA 인증서를 임포트합니다.

Trust~ 이런 내용은 대충 CA를 믿느냐고 물어보는 것이기 때문에 체크하고 OK를 눌러 넘어가면 됩니다.

 

 

 

 

 

 

그러면 접속 에러는 뜨지 않을 것 입니다..

(사실 왜 접속은 안되는진 모르겠음 나중에 공부하면 알게 되겠지)

 

 

 

 

 

728x90

+ Recent posts