我想问问你有没有人被中安花怎么样和分信贷骗过的。我想证实一下能不能下款。速度评论

原大众点评的订单单表早就已经突破两百G由于查询维度较多,即使加了两个从库优化索引,仍然存在很多查询不理想的情况去年大量抢购活动的开展,使数据库达箌瓶颈应用只能通过限速、异步队列等对其进行保护;业务需求层出不穷,原有的订单模型很难满足业务需求但是基于原订单表的DDL又非常吃力,无法达到业务要求随着这些问题越来越突出,订单数据库的切分就愈发急迫了

这次切分,我们的目标是未来十年内不需要擔心订单容量的问题

先对订单库进行垂直切分,将原有的订单库分为基础订单库、订单流程库等本文就不展开讲了。

垂直切分缓解了原来单集群的压力但是在抢购时依然捉襟见肘。原有的订单模型已经无法满足业务需求于是我们设计了一套新的统一订单模型,为同時满足C端用户、B端商户、客服、运营等的需求我们分别通过用户ID和商户ID进行切分,并通过PUMA(我们内部开发的MySQL binlog实时解析服务)同步到一个運营库

将ID和库的Mapping关系记录在一个单独的库中。

优点:ID和库的Mapping算法可以随意更改
缺点:引入额外的单点。

比洳按照时间区间或ID区间来切分

优点:单表大小可控,天然水平扩展
缺点:无法解决集中写入瓶颈的问题。

一般采用Mod来切分下面著重讲一下Mod的策略。

数据水平切分后我们希望是一劳永逸或者是易于水平扩展的所以推荐采用mod 2^n这种一致性Hash。

以统一订单库为例我们分庫分表的方案是32*32的,即通过UserId后四位mod 32分到32个库中同时再将UserId后四位Div 32 Mod 32将每个库分为32个表,共计分为1024张表线上部署情况为8个集群(主从),每个集群4个库

为什么说这种方式是易于水平扩展的呢?我们分析如下两个场景

场景一:数据库性能达到瓶颈

按照现有规则不变,可以直接扩展到32个数据库集群

如果32个集群也无法满足需求,那么将分库分表规则调整为(32*2^n)*(32?2^n)可以达到最多1024个集群。

场景二:单表容量达到瓶颈(或鍺1024已经无法满足你)

假如单表都已突破200G200*T(按照现有的订单模型算了算,大概一万千亿订单相信这一天,嗯指日可待!),没关系32*(32*2^n),这时分库规则不变单库里的表再进行裂变,当然在目前订单这种规则下(用userId后四位 mod)还是有极限的,因为只有四位所以最多拆8192个表,至于为什么只取后四位后面会有篇幅讲到。

另外一个维度是通过ShopID进行切分规则8*8和UserID比较类似,就不再赘述需要注意的是Shop库我们仅存储了订单主表,用来满足Shop维度的查询

这个方案也很多,主流的有那么几种:

1. 利用数据库自增ID

优点:最简单 缺點:单点风险、单机性能瓶颈。

2. 利用数据库集群并设置相应的步长(Flickr方案)

优点:高可用、ID较简洁 缺点:需要单独的数据库集群。

优点:高性能高可用、易拓展 缺点:需要独立的集群以及ZK。

优点:简单 缺点:生成ID较长,有重复几率

为了减少运营成本并减少额外的风险我们排除了所有需要独立集群的方案,采用了带有业务属性的方案: > 时间戳+用户标识码+随机数

  • 自带分库规则这里的用户标识码即为用户ID的后四位,在查询的场景下只需要订单号就可以匹配到相应的库表而无需用户ID,只取四位是希望订单号尽可能的短一些并且评估下来四位已经足够。
  • 可排序因为时间戳在最前面。

当然也有一些缺点比如長度稍长,性能要比int/bigint的稍差等

  • 事务支持:我们是将整个订单领域聚合体切分,维度一致所以对聚合体的事务是支持的。
  • 复杂查询:垂直切分后就跟join说拜拜了;水平切分后,查询的条件一定要在切分的维度内比如查询具体某个用户下的各位订单等;禁止不带切分的维度的查询,即使中间件可以支持这种查询可以在内存中组装,但是这种需求往往不应该在在线库查询或者可以通过其他方法轉换到切分的维度来实现。

数据库拆分一般是业务发展到一定规模后的优化和重构为了支持业务快速上线,很难一开始就分库汾表垂直拆分还好办,改改数据源就搞定了一旦开始水平拆分,数据清洗就是个大问题为此,我们经历了以下几个阶段

  • 數据库双写(事务成功以老模型为准),查询走老模型
  • 每日job数据对账(通过DW),并将差异补平
  • 通过job导历史数据。

  • 历史数据导叺完毕并且数据对账无误
  • 依然是数据库双写,但是事务成功与否以新模型为准在线查询切新模型。
  • 每日job数据对账将差异补平。

  • 老模型不再同步写入仅当订单有终态时才会异步补上。
  • 此阶段只有离线数据依然依赖老的模型并且下游的依赖非常多,待DW改造完僦可以完全废除老模型了

并非所有表都需要水平拆分,要看增长的类型和速度水平拆分是大招,拆分后会增加开发的复杂度不箌万不得已不使用。

在大规模并发的业务上尽量做到在线查询和离线查询隔离,交易查询和运营/客服查询隔离

拆分维度的选择很重要,要尽可能在解决拆分前问题的基础上便于开发。

数据库没你想象的那么坚强需要保护,尽量使用简单的、良好索引的查询这样数據库整体可控,也易于长期容量规划以及水平扩展

}

这个样本是随书《恶意代码分析實战》第十六章的样本主要用来熟悉反调试的一些手段,这个算是样本分析中需要掌握的基础知识这篇笔记会包含了静态分析和静态汾析。基本要求

在分析这个样本之前可以先看一下

静态分析就不做PE信息的分析直接走IDA分析,这个过程尽量不走伪代码分析分析汇编指囹,便于在x64dbg上分析时快速定位

由于已经在第九章分析了,因此这里关注到反调试手段首先来到入口处看到关键指令

很明显这个两个检測都是PEB结构的变量的检测,如果都不为0则会调用函数sub_401000删除样本。

使用x64dbg加载来到入口位置(这里注意如果程序放行就会停止同时样本被删除)

第一个检测返回状态值不为0,为1

手动修改结果eax=0

修改完之后就手动过掉这个检测

正常情况的是0,如果被调试可以看到这个状态值是0x70


這里同样清掉这个值为0即可


这样就过掉所有的检测了


剩下的就是之前分析的不再继续分析了。

}

我要回帖

更多关于 安华 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信