人生南北多歧路,将相神仙,也要凡人做。百代兴亡朝复暮, 春风吹倒前朝树。
功名富贵无凭据,费尽心情,总把流光误。浊酒三杯沉醉去,水流花谢知何处。
不要以为使用 shader_ptr可以避免内存泄漏。下面是一个泄漏的例子
1 | #include <memory> |
由于参数名和成员名一样, 构造函数只是将参数oldSwapchain设置为null,但是成员oldSwapchain依旧保留shared_ptr的引用,参数传入进来的Swapchain会像列表一样存在,他们将会保存到成员的oldSwapchain中,这样就完成了一个隐式内存泄漏,valgrind根本没办法检测出这种内存泄漏,使用shared_ptr切记要注意这些问题,Java也有可能遇到这种问题
config.yaml
该配置表示只打开c++自动推导的类型例如auto声明,关闭参数名称
1 | InlayHints: |
vscode无法使用msys2安装的git,必须使用https://git-scm.com/download/win 安装的git
先上代码
1 | #include <iostream> |
这里有一个严重的bug那就是会析构函数会调用两次,解决方法就是将auto a修改为auto &a,写auto进行类型推导的时候一定要注意这些
有些游戏有几种buff,比如在指定概率内只出现指定的材料,装备,但是你的代码太老了牵一发动全身,那么这个“只”就有意思了,比如你这么实现:拦截或者修改装备或材料出现的接口,加入一个判断,是对应buff的就返回,不是就返回没有出现装备或材料,这样达到了低耦合代码,避免修改原始代码。完成了任务,避免修改出bug。不需要的时候可以直接删除不要。是不是很完美。反正没有客服,即使有我们也可以嘴硬。反正玩家好欺负。
很多人对概率有很大的误解,以为40%的概率就是10次成4次,100次成40次,成本应该比较固定的,那你的想法就错了,因为可以操作总数,比如你只强化一次装备概率是40,但是是100万的40,1000万的40,想要达成这个40的成本就不一样了,自己可已想象以下,失败的范围变大了,更容易出现,而且一旦涉及的单独概率更容易出现。这也是某些游戏看着概率提升,但是成功成本也提升的原因。只要样本数量足够多,能保证概率就是40,你又如何说概率不是40呢。
做个备份官方地址,记得把部署命令中的ee版本改为ce版本, 因为懒得修改gitlab的ssh port所以修改了系统的sshd port
修改gitlab.rb中的
1 | external_url '你的地址' |
之所以这样些而不是用url:port的方式主要是因为使用了nginxproxymanage代理了gitlab,并且启用了https,不希望gitlab中的http(s)克隆地址出现端口号
官网说明
重新部署gitlab
docker run --detach \
--publish 8001:8001 --publish 22:22 \
--name gitlab \
--restart always \
--volume /root/.docker/gitlab/config:/etc/gitlab \
--volume /root/.docker/gitlab/logs:/var/log/gitlab \
--volume /root/.docker/gitlab/data:/var/opt/gitlab \
gitlab/gitlab-ce:latest
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true