去年写过的Dagum基尼系数分解工具,本来已经足够使用,但是前天有一位用户,数据量有近15w行,我从未设想过会出现如此大的数据,程序足足运行了将近5个小时才跑出结果,然而用户还有很多类似的数据,不能总是如此。
于是在原先的工具基础上,做了优化,优化后的运行速度得到极大提升,同样的数据,在优化后,只用了不到30分钟就运行出结果,时间缩短到未优化前的1/10。
以下是结果对比:
未优化前
优化之后
需要的可以联系我微信,canglang12002
除了公众号的这些工具,大家有想做的模型,找不到代码,或者做起来比较繁琐,也欢迎与我们联系。
往期推荐: