法人代表居然还没被以集资罪/吸收公众存款罪抓起来?
根据汉能集团近期宣贯会的要求,多数员工都需认购此款产品,未完成认购指标的员工将被看做不认同公司价值观,进而影响其8月份的业绩考核,最终或致解除劳动关系。要完成指标,员工可采取两种形式,自购或者代销,即员工可推荐亲朋好友购买。
Source: 汉能向员工“摊派”6亿金融产品_公司频道_财新网
法人代表居然还没被以集资罪/吸收公众存款罪抓起来?
根据汉能集团近期宣贯会的要求,多数员工都需认购此款产品,未完成认购指标的员工将被看做不认同公司价值观,进而影响其8月份的业绩考核,最终或致解除劳动关系。要完成指标,员工可采取两种形式,自购或者代销,即员工可推荐亲朋好友购买。
Source: 汉能向员工“摊派”6亿金融产品_公司频道_财新网
从政策来看,资管新规细则比预期的要松一些,比如过渡办法和公募理财的投放标的,但是整体说来肯定比资管新规出来之前要严。
影子银行不能像以前那样玩了。但是我听说有新的玩法,云链金融了解一下。
7月20日晚,人民银行发布《关于进一步明确规范金融机构资产管理业务指导意见有关事项的通知》(下称《通知》),细则共六条。其中,对市场影响较大有三:首先是明确了在符合资管新规有关非标投资期限匹配、限额管理、信息披露等监管要求前提下,公募资管产品可以适当投资非标产品;二是允许在整体规模压降的前提下,过渡期内发行的老产品投资新资产;三是进一步明确过渡期内适用摊余成本法估值的产品类型。
Source: 资管新规细则解市场疑惑 去杠杆缓节奏非放松_金融频道_财新网
央行本来是想给企业降低融资难度,结果变成了给地方政府接盘。
之前央行和财政白怼了。
接下来,只要地方政府没一个破产的,资金大概率还是继续往这边流。
市场需要出清。
上述消息于7月18日下午在银行间债市传开后,立即提振城投债的二级市场交投。有交易员表示,当日AA级城投债共成交了36笔。而7月19日截至下午3点半,AA级城投债已经成交了50笔,交易继续活跃。一位险资固收人士表示,目前市场还是对民企债偏谨慎,同评级下的城投债相对安全。
把银行破产说得这么“文艺”。
不过,亦有分析师对此持审慎观点,认为中小银行风险暴露会加速传导到同业,市场对此预期不足。“银行评级下调事件频发,在去杠杆背景下,商业银行不仅面临表外刚兑被打破,表内资产‘刚兑’打破预期亦增强。”兴业研究固收分析师徐寒飞称。
Source: 部分农商行不良率飙升 是个案还是爆发前兆?_金融频道_财新网
最近开始学国立高等经济学院的机器学习课程,和之前 Andrew Ng 的课程不同的是,这个课程大量用编程而不是视频来带动教学。而且这些程序用了行业通用的数据库,并且从零开始训练,而不是只训练一个epoch就加载由老师训练好的模型进行验证。
因此,这个课程的机器学习过程,在CPU上经常需要数小时完成,更别谈用Coursera自己在线的那个服务了(不太稳定)。
Google为数据分析及机器学习学生准备了一个平台:Colab。这个平台最棒的地方是完全免费的提供了一个GPU供使用,但限制在12个小时内。
但是这个平台并不能直接用来跑Coursera的课程。虽然两个平台用的都是Jupyter notebook格式的文件,但Goolge限制了对文件系统和目录的访问,最直接的表现就是,Colab一次只能运行一个notebook,运行下一个的时候,未必是同一个环境。
那么有没有hack的办法呢?我成功了。
TL;DR: 你需要把所有需要的Notebook合并成一个,并且用Google的API把一些依赖库上传到环境中。
以第一个专项课程第四周的第一个作业为例。
通过分析,完成这个作业需要用到两个notebook,其中一个用来下载测试数据,另一个才是课程代码。
课程还需要数个*.py的库,因此,我做了一个初始化环境的notebook。
使用时,将这个初始化脚本、下载资源和作业本身的notebook用nbmerge命令合并成一个notebook并传到自己的Google Drive。(这个命令没有的话用pip安装)
然后,因为文件目录结构发生了变化,download_utils.py 里面的文件位置需要改变,简单来说就是去掉所有的“../“。(链接的这份我已经改好了)
用初始化脚本第一行代码上传requirements文件和所有依赖的py库。注意,这个requirements文件我在官方的基础上做了修改,删除了tensorflow的版本要求,因为直接用Colab环境的版本适配GPU最方便。
完成以上工作以后,顺着notebook安装依赖库,下载训练数据,然后就可以开始写作业了。
但这个方案还是有些不完美的地方:
比起用CPU训练几个小时,现在几分钟就可以出结果,实在是太棒了!
今天被一个奇怪的事情折腾了一天:课程作业无法得到应有的结果,本应得到高于90%的准确率的模型,训练出来只有40%。
幸好在讨论区找到了答案:Keras在2.1.3版后,对BatchNormalization这个层的功能做了修改。但是这个修改并没有体现在Keras自己的文档中, 只在GitHub的问题区有零星的讨论。
不少人对这个改变有不同的看法,主要两种观点及其验证可以见以下三篇文章:1 2 3
总结来说,其实在2.1.2及之前,BN这个层是有bug的,这个bug就是:如果该层被设为trainable=False,实际在训练中,这个层还是会更新mean和variance的值,并且这些参数会更新到测试阶段使用。
到了2.1.3及以后,这个bug被消灭了,但是对很多做transfer learning的人来说,却有新的问题出现了。因为做transfer learning时,一般会导入Inception、ResNet等已经训练好的模型作为底层模型。这些底层模型的训练集和我们用来训练的数据肯定是有区别的,因此会导致BN这一层的mean和variance不正确。
如果是训练和测试的时候都一样错就罢了,起码模型的结果是一致的。Keras另一个参数trainning的默认值决定了模型在训练的时候,是以mini-batch的mean和variance数据来训练的,但并不会更新到模型中,因此测试用的mean和variance仍然是导入的模型的原始数据。
上面这种设计带来的结果就是,在某些情况下,同样的模型同样的数据,训练和测试的loss或者acc会差很远。因为是同样的数据,所以根本不是over-fitting的问题(虽然看起来很像)。这也正是我遇到的问题。
针对这个问题,解决办法有两个思路:
四个媒体对于海航董事长王健的死亡经过的描述有些微妙的出入。
结合最近Musk搭了几个帐篷解决Model 3产量问题,我觉得特斯拉内部出了大问题。可能为了冲击量产目标做了一些不可持续的生产计划。
知情人士透露,特斯拉(Tesla Inc., TSLA)首席工程师不会从无薪假中重返工作岗位。
Source: 特斯拉首席工程师离职 – 华尔街日报