【经验总结】SQL注入Bypass安全狗360主机卫士

0x00 前言

这类的文章已经是比较多了,本文也主要是作为学习笔记来记录,主要是记录一下我在学习 SQL 注入 Bypass 的过程,同时前人的不少绕过方法已经失效了,所以这里也是记录一下最新规则的一些绕过方法。

0x01 环境搭建

测试环境:Win7 + Apache + MySQL 5.7.26 + PHP 5.5.45

阅读全文
【Python Scrapy 爬虫框架】 6、继续爬虫、终止和重启任务

0x00 前言

有时候我们不想只爬一个页面的,比如之前我只爬了主页,但是现在想把其他页面的也爬下来,这就是本文的任务。

0x01 修改代码

在之前的基础上,修改 teamssix_blog_spider.py 文件,首先添加 start_urls

1
2
3
4
5
6
7
start_urls = [
'https://www.teamssix.com',
'https://www.teamssix.com/page/2/',
'https://www.teamssix.com/page/3/',
'https://www.teamssix.com/page/4/',
'https://www.teamssix.com/page/5/'
]
阅读全文
【Python Scrapy 爬虫框架】 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

0x00 前言

前文中讲到了将爬取的数据导出到文件中,接下来就在前文的代码基础之上,将数据导出到 MongoDB中。

0x01 配置 pipelines.py

首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。

将连接操作 mongo 所需要的包导入进来

1
import pymongo
阅读全文
【Python Scrapy 爬虫框架】 4、数据项介绍和导出文件

0x00 前言

通过上文的内容,已经把博客文章的标题及目录爬取下来了,接下来为了方便数据的保存,我们可以把这些文章的标题及目录给包装成一个数据项,也就是 items。

0x01 配置 item

先来到 items.py 文件下,对标题及目录的信息进行包装,为了对这些信息进行区别,还需要有一个 id,所以代码如下:

1
2
3
4
class TeamssixItem(scrapy.Item):
_id = scrapy.Field()
title = scrapy.Field()
list = scrapy.Field()
阅读全文
【Python Scrapy 爬虫框架】 3、利用 Scrapy 爬取博客文章详细信息

0x00 写在前面

在之前的文章中,会发现如果直接使用爬取命令,终端会回显很多调试信息,这样输出的内容就会显得很乱,所以就可以使用下面的命令:

1
scrapy crawl blogurl  -s LOG_FILE=all.log
阅读全文
【Python Scrapy 爬虫框架】 2、利用 Scrapy 爬取我的博客文章标题链接

0x00 新建项目

在终端中即可直接新建项目,这里我创建一个名称为 teamssix 的项目,命令如下:

1
scrapy startproject teamssix

命令运行后,会自动在当前目录下生成许多文件,如下所示:

1
2
3
4
5
6
7
8
9
10
teamssix
│ scrapy.cfg #scrapy的配置文件
└─teamssix #项目的Python模块,在这里写自己的代码
│ items.py #项目定义文件
│ middlewares.py #项目中间件文件
│ pipelines.py #项目管道文件,用来处理数据的写入存储等操作
│ settings.py #项目设置文件
│ __init__.py
├─spiders #在这里写爬虫代码
└─ __init__.py
阅读全文
【Python Scrapy 爬虫框架】 1、简介与安装

0x00 简介

下图展示了 Scrapy 的体系结构及其组件概述,在介绍图中的流程前,先来简单了解一下图中每个组件的含义。

Engine

Engine 负责控制系统所有组件之间的数据流,并在某些操作发生时触发事件。

阅读全文
【漏洞笔记】浅谈SSRF原理及其利用

声明:本文仅用作技术交流学习分享用途,严禁将本文中涉及到的技术用法用于违法犯罪目的。

0x00 漏洞说明

SSRF (Server-Side Request Forgery) 即服务端请求伪造,从字面意思上理解就是伪造一个服务端请求,也即是说攻击者伪造服务端的请求发起攻击,攻击者借由服务端为跳板来攻击目标系统,既然是跳板,也就是表明攻击者是无法直接访问目标服务的,为了更好的理解这个过程,我从网上找了一张图,贴在了下面。

阅读全文
【Python 学习笔记】 异步IO (asyncio) 协程

0x00 前言

之前对协程早有耳闻,但一直没有去学习,今天就来学习一下协程,再次感谢莫烦的教程。

可以交给asyncio执行的任务被称为协程, asyncio 即异步的意思,在 Python3 中这是一个仅使用单线程就能达到多线程、多进程效果的工具。

在单线程中使用异步发起 IO 操作的时候,不需要等待 IO 的结束,在等待 IO 操作结束的这个空当儿可以继续做其他事情,结束的时候就会得到通知,所以能够很有效的利用等待下载的这段时间。

今天就来看看协程能不能干掉多线程和多进程。

阅读全文
【Python 学习笔记】多进程爬虫

0x00 前言

前段时间学习了多线程,但在实际的情况中对于多线程的速度实在不满意,所以今天就来学学多进程分布式爬虫,在这里感谢莫烦的Python教程。

0x01 什么是多进程爬虫

在讲述多进程之前,先来回顾一下之前学习的多线程。

阅读全文