본문 바로가기

S-DEV

(41)
Yara 프로젝트 • Yara 악성 파일을 시그니처 기반으로 판별 및 분류 할 수 있게 하는 툴로 Linux, Windows OS 에서 모두 사용이 가능 • Yara Rule https://github.com/Yara-Rules/rules GitHub - Yara-Rules/rules: Repository of yara rules Repository of yara rules. Contribute to Yara-Rules/rules development by creating an account on GitHub. github.com 1. 디렉터리에 있는 파일 불러오기 2. 파일 중 yar 확장자(yara Rule)만 불러온다. 3. 검사할 대상과 비교를 한다. 4. 시그니처가 yar 파일에 있는지 여부를 판단한다.
홈페이지 구축 (Flask) 보호되어 있는 글입니다.
최소한의 기능 앱 만들기 보호되어 있는 글입니다.
플라스크 환경 구축 1. python 설치 https://www.python.org/ Welcome to Python.org The official home of the Python Programming Language www.python.org 2. 가상 환경 만들기 가상 환경 활성 : source venv/bin/activate 가상 환경 비활성 : deactivate 3. 플라스크 설치 4. Visual Studio Code 설치 https://code.visualstudio.com/ Visual Studio Code - Code Editing. Redefined Visual Studio Code is a code editor redefined and optimized for building and debugging ..
Tiny Encryption Algorithm 실행 화면 - IDA를 사용하여 분석하기 main에 들어가보면 I love pancakes 문자배열이 들어가 있다. - Pseudocode-A를 확인해 보면 실행 코드르 확인할 수 있다. int __cdecl main(int argc, const char **argv, const char **envp) { int i; // [rsp+0h] [rbp-20A0h] int v6; // [rsp+4h] [rbp-209Ch] __int64 v7[16]; // [rsp+10h] [rbp-2090h] BYREF char s[18]; // [rsp+90h] [rbp-2010h] BYREF __int16 v9; // [rsp+A2h] [rbp-1FFEh] int v10; // [rsp+A4h] [rbp-1FFCh] __..
Reverse Engineering Packer를 배우기 위한 과정 • VM을 공부하기 전에 OPCODE를 잘 다루어야 한다 수행할 연산자를 표시하는 것이 OPCODE (Operation Code) 라고 한다. 이는 "함수 연산", "자료 전달", "제어", "입출력" 으로 세분화 된다. - Hello-SDEV를 출력하는 C코드를 작성 후 어셈블리어로 변환하여 살펴보고 똑같이 작성하라 #include int main() { printf("Hello S-DEV"); } #include char message[] = "Hello S-DEV"; char format[] = "%s\n"; int main() { __asm { // message 주소를 eax에 레지스터에 로드한다. lea eax, message // 스택에 푸시 push eax ..
codeengn 보호되어 있는 글입니다.
다크웹 3 ahmina.fi/address 주소에 있는 Onion 도메인들의 tilte 및 url 주소 파싱하기 import requests from bs4 import BeautifulSoup import time proxies = { "http": "socks5h://127.0.0.1:9150", "https": "socks5h://127.0.0.1:9150" } url = 'https://ahmia.fi/address/' response = requests.get(url, proxies=proxies) html = response.text soup = BeautifulSoup(html, 'html.parser') # URL 링크 for a in soup.findAll("a"): href = a["href"] ..