天道酬勤,学无止境

包括随机部分的微观模拟 GLM(microsimulation GLM including stochastic part)

问题

我正在尝试在 R 中模拟 GLM 函数,包括随机不确定性。 我将基于公式的方法与基于 R 的simulate()函数进行了比较,并得到不同的结果。 不确定我(可能是我而不是 R)做错了什么。

我首先创建一个模拟队列:

set.seed(1)
library(MASS)

d <- mvrnorm(n=3000, mu=c(30,12,60), Sigma=matrix(data=c(45, 5, 40, 5, 15, 13, 40, 13, 300), nrow=3))
d[,1] <- d[,1]^2

拟合模型:

m <- glm(formula=d[,1]~d[,2] + d[,3], family=gaussian(link="sqrt"))

在线性尺度上预测(使用公式)

p_linear <- m$coefficients[1] + m$coefficients[2]*d[,2] + m$coefficients[3]*d[,3]

比较两种方法的预测,包括反向链接函数。 它似乎是相似的:

sum((predict(object=m, type="response")-p_linear^2)^2)==0

将随机部分添加到两个预测中:

sd_residuals <- sd(p_linear^2 - d[,1])
p <- p_linear^2 + rnorm(n=1000, mean=0, sd=sd_residuals)
p_simulate <- simulate(m)$sim_1

将两个预测(基于公式和基于simulate() )与图中的原始数据进行比较:

par(mfrow=c(1,2), mar=c(4,2,2,1))
plot(d[,1], p, col="blue", pch=20, cex=0.5, xlim=c(-500, 3000), ylim=c(-500, 3000))
abline(lm(p~d[,1]), col="blue")
points(d[,1], p_simulate, col="red", cex=0.5)
abline(lm(p_simulate~d[,1]), col="red")
abline(a=0, b=1)

...并比较两个预测:

plot(p, p_simulate, col="green", cex=0.5, xlim=c(-500, 3000), ylim=c(-500, 3000))
abline(lm(p_simulate~p), col="green")
abline(a=0, b=1)

似乎基于公式的预测反映了与原始数据类似的随机不确定性。 基于 r 的simulate()函数方法似乎比原始数据代表更少的随机不确定性。 基于公式的方法是否正确? 如果不是,我应该如何适应它? (出于兴趣:是什么导致了两种方法之间的差异?)

最终,我想在数据以外的地方使用 GLM 模型作为预测的输入值。 我也想在Excel中应用它。 因此,我正在寻找一种基于公式的方法,而不是使用像simulate()这样的 R 包。

欢迎任何有关阅读预测材料的提示,包括 R 中的 GLM 中的随机。 我用谷歌搜索了很多,但很难在 R 中找到基于公式的例子,而不是家庭/链接是高斯/身份。

标签

受限制的 HTML

  • 允许的HTML标签:<a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • 自动断行和分段。
  • 网页和电子邮件地址自动转换为链接。

相关推荐
  • microsimulation GLM including stochastic part
    I'm trying to simulate GLM functions in R including stochastic uncertainty. I compared a formula-based approach to the R-based simulate() function and get different results. Not sure what I (probably its me and not R) am doing wrong. I start by creating a simulation cohort: set.seed(1) library(MASS) d <- mvrnorm(n=3000, mu=c(30,12,60), Sigma=matrix(data=c(45, 5, 40, 5, 15, 13, 40, 13, 300), nrow=3)) d[,1] <- d[,1]^2 Fit the model: m <- glm(formula=d[,1]~d[,2] + d[,3], family=gaussian(link="sqrt")) predict on linear scale (using formula) p_linear <- m$coefficients[1] + m$coefficients[2]*d[,2] +
  • Python用PyMC3实现贝叶斯线性回归模型
    原文链接:http://tecdat.cn/?p=5263 在本文中,我们将在贝叶斯框架中引入回归建模,并使用PyMC3 MCMC库进行推理。 我们将首先回顾经典或频率论者的多重线性回归方法。然后我们将讨论贝叶斯如何考虑线性回归。 用PyMC3进行贝叶斯线性回归 在本节中,我们将对统计实例进行一种历史悠久的方法,即模拟一些我们知道的属性的数据,然后拟合一个模型来恢复这些原始属性。 什么是广义线性模型? 在我们开始讨论贝叶斯线性回归之前,我想简要地概述广义线性模型(GLM)的概念,因为我们将使用它们来在PyMC3中制定我们的模型。 广义线性模型是将普通线性回归扩展到更一般形式的回归的灵活机制,包括逻辑回归(分类)和泊松回归(用于计数数据)以及线性回归本身。 GLM允许具有除正态分布以外的误差分布的响应变量(参见频率分区中的上述)。 用PyMC3模拟数据并拟合模型 在我们使用PyMC3来指定和采样贝叶斯模型之前,我们需要模拟一些噪声线性数据。 输出如下图所示: 通过Numpy,pandas和seaborn模拟噪声线性数据 现在我们已经进行了模拟,我们想要对数据拟合贝叶斯线性回归。这是glm模块进来的地方。它使用与R指定模型类似的模型规范语法。 然后我们将找到MCMC采样器的最大后验概率(MAP)估计值。最后,我们将使用No-U-Turn Sampler(NUTS)来进行实际推理
  • LearnOpenGL学习笔记—PBR:IBL
    LearnOpenGL学习笔记—PBR:IBL 0 引入1 渲染方程的求解2 hdr文件转成cubemap3 预计算漫反射积分4 预计算镜面反射积分4.1 预滤波HDR环境贴图4.1.1 蒙特卡洛积分4.1.1.1 概率密度函数、概率分布函数4.1.1.2 数学期望4.1.1.3 大数定律4.1.1.4 蒙特卡罗积分4.1.1.5 随机抽样4.1.1.6 重要性采样4.1.1.7 预滤波HDR环境贴图 4.2 预计算 BRDF 5 计算渲染方程6 动手试试 本节对应官网学习内容:漫反射辐照,镜面IBL 结合英文原站,中文站,以及个人实践进行描述。 本项目地址点击 这里这里这里 文章中的代码基于OpenGL的参考,真正实现时使用了WebGL弄了个网页(为了交作业_(:з」∠)_) 所以文章代码不完全等于实现的代码,但是思路和解说是正确的,可以到git项目里看该项目实现“(终版)”的细致说明 0 引入 在前面一篇PBR的光照中,我们仅仅考虑了直接光照部分,仅仅考虑直接光照时求解渲染方程非常简单,只需需根据给定的光源直接计算并叠加,而不需要在法线轴向的半球方向做积分。 Image Based Lighting(以下简称IBL)是基于图像的光照,这种技术专门计算来自于周围环境的间接光照,其会把周围环境的光影信息存储在一张环境贴图中, 这个环境贴图可以是预先生成好的
  • Stata估算观测数据的风险比
    原文链接:http://tecdat.cn/?p=6419 在分析二元结果时,逻辑回归是分析师对回归建模的默认方法。随机研究中,当然很容易估计比较两个治疗组的风险比。对于观察数据,治疗不是随机分配的,估计治疗效果的风险比有点棘手。 理想情况 - 随机治疗分配 理想情况下,我们首先模拟(在Stata中)一个大型数据集,该数据集可能在随机试验中出现: gen x = rnormal() gen z =(runiform()<0.5) gen xb = x + z gen pr = exp(xb)/(1 + exp(xb)) gen y =(runiform()<pr) 此代码为10,000个人生成数据集。每个都有一个基线变量x的值,它是从标准N(0,1)分布模拟的。接下来,根据随机研究,我们模拟一个二进制变量z,概率0.5为1,概率0.5为0.然后生成二元结果y,我们从逻辑回归模型生成它,对数几率为1等于x + z。因此,对于x,调整z = 1与z = 0的真实优势比是exp(1)= 2.72。 由于处理是随机分配的,我们可以忽略x并使用带有日志链接的GLM命令估计比较z = 1到z = 0的风险比: Generalized linear models No. of obs = 10000 Optimization : ML Residual df = 9998 Scale
  • R:在 glm() 中的逻辑回归中预测 (0,1)(R: Predict (0,1) in logistic regression in glm())
    问题 我正在尝试在二元 logit 模型中模拟“假设”情况。 我正在估计通过测试的概率,考虑到测试的难度(1 = 最简单,5 = 最难),并以性别为控制。 (数据在这里)。 学生将接受一项通常很难的测试(数据中的“高”)。 由此我们可以估计测试难度对通过可能性的影响: model = glm(PASS ~ as.factor(SEX) + as.factor(HIGH), family=binomial(link="logit"), data=df) summary(model) 我们还可以获得通过的预测概率: predict.high = predict(model, type="response") 问题是,如果改为进行“LOW”测试呢? 要获得新的概率,我们可以这样做: newdata = rename.vars(subset(df, select=c(-HIGH)), 'LOW','HIGH') predict.low = predict(model, newdata=newdata, type="response") 但是我怎么知道在这种情况下会有多少额外的学生通过呢? 我没有看到glm()有明显的开关吗? 回答1 我还没有尝试挖掘我基于 Gelman 和 Hill (2006) 编写的预测代码,我似乎记得使用过模拟。 我仍然打算这样做。 在我有限的经验中
  • 警告:非整数#成功的二项式glm! (调查包)(Warning: non-integer #successes in a binomial glm! (survey packages))
    问题 我正在使用twang包来创建倾向得分,并使用survey::svyglm将其用作二项式glm中的权重。 代码看起来像这样: pscore <- ps(ppci ~ var1+var2+.........., data=dt....) dt$w <- get.weights(pscore, stop.method="es.mean") design.ps <- svydesign(ids=~1, weights=~w, data=dt,) glm1 <- svyglm(m30 ~ ppci, design=design.ps,family=binomial) 这将产生以下警告: Warning message: In eval(expr, envir, enclos) : non-integer #successes in a binomial glm! 有谁知道我可能做错了什么? 我不确定此消息是否对stats.SE更好,但总的来说,我认为我会先在这里尝试。 回答1 没错,在指定二项式(和泊松)模型时, glm只是挑剔的。 如果它检测到否,它会发出警告。 尝试或成功的过程不是完整的,但无论如何它还是可以适应模型的。 如果要禁止显示警告(并且确定这不是问题),请改用family=quasibinomial 。 回答2 就像@HoongOoi所说, binomial家族的glm
  • LearnOpenGL学习笔记—高级OpenGL 10:实例化
    LearnOpenGL学习笔记—高级OpenGL 10:实例化 1 知识:实例化1.1 小练习 2 小行星带2.1 实例化小行星带 【项目地址:点击这里这里这里】 本节对应官网学习内容:实例化 1 知识:实例化 假设有一个绘制了很多模型的场景,而大部分的模型包含的是同一组顶点数据,只不过进行的是不同的世界空间变换(比如之前的十个立方体模型)。 也比如是充满草的场景:每根草都是一个包含几个三角形的小模型。 如果需要绘制很多根草,最终在每帧中可能会需要渲染上千或者上万根草。 因为每一根草仅仅是由几个三角形构成,渲染几乎是瞬间完成的,但上千个渲染函数调用却会极大地影响性能。 如果我们需要渲染大量物体时,代码看起来会像这样: for(unsigned int i = 0; i < amount_of_models_to_draw; i++) { DoSomePreparations(); // 绑定VAO,绑定纹理,设置uniform等 glDrawArrays(GL_TRIANGLES, 0, amount_of_vertices); } 如果像这样绘制模型的大量实例(Instance),我们很快就会因为绘制调用过多而达到性能瓶颈。 绘制一组顶点本身是很快的,但是使用glDrawArrays或glDrawElements函数告诉GPU去绘制顶点数据的过程会消耗更多的性能。
  • OpenGL - 阴影映射 - Tutorial 16 : Shadow mapping
    文章目录 Basic shadowmap - shadow map的基础知识Rendering the shadow map - 渲染shadow mapSetting up the rendertarget and the MVP matrix - 设置渲染目标和MVP矩阵The shaders - Shader着色器Result - 渲染结果 Using the shadow map - 使用shadow mapBasic shader - 简单的shaderResult - Shadow acne - 渲染结果的阴影粉刺 Problems - 问题Shadow acne - 阴影粉刺Peter Panning - 彼得·潘宁Aliasing - 锯齿PCF - 靠近边缘百分比滤波Poisson Sampling - 泊松采样Stratified Poisson Sampling - 分层泊松采样 Going further - 进一步探索Early bailing - 提前判定Spot lights - 聚光灯Point lights - 点光源Combination of several lights - 多组光源的使用Automatic light frustum - 自适应的光源视锥体Exponential shadow maps - 指数分布阴影图Light
  • 用于 OpenGL 中头部跟踪的斜视锥体/离轴投影(Skewed frustum/off-axis projection for head tracking in OpenGL)
    问题 我正在尝试在我的应用程序中进行离轴投影,并尝试根据用户的头部位置改变场景的视角。 通常,考虑到我必须在屏幕上绘制一个框,我会在屏幕上绘制一个框: ofBox(350,250,0,50); //ofBox(x, y, z, size); where x, y and z used here are the screen coordinates 要在这里进行离轴投影,我知道我必须按如下方式更改透视投影: vertFov = 0.5; near = 0.5; aspRatio = 1.33; glMatrixMode(GL_PROJECTION); glLoadIdentity(); glFrustum(near * (-vertFov * aspRatio + headX), near * (vertFov * aspRatio + headX), near * (-vertFov + headY), near * (vertFov + headY), near, far); //frustum changes as per the position of headX and headY glMatrixMode(GL_MODELVIEW); glLoadIdentity(); gluLookAt(headX * headZ, headY * headZ, 0, headX *
  • glm() 模型的交叉验证(Cross validation for glm() models)
    问题 我正在尝试对我之前在 R 中构建的一些 glm 模型进行 10 倍交叉验证。我对boot包中的cv.glm()函数有点困惑,尽管我已经阅读了很多的帮助文件。 当我提供以下公式时: library(boot) cv.glm(data, glmfit, K=10) 这里的“数据”参数是指整个数据集还是仅指测试集? 到目前为止,我看到的示例提供了“数据”参数作为测试集,但这并没有真正意义,例如为什么在同一个测试集上进行 10 倍? 他们都会给出完全相同的结果(我假设!)。 不幸的是?cv.glm以一种?cv.glm解释了它: 数据:包含数据的矩阵或数据框。 行应该是案例,列对应于变量,其中之一是响应 我的另一个问题是关于$delta[1]结果。 这是 10 次试验的平均预测误差吗? 如果我想获得每个折叠的错误怎么办? 这是我的脚本的样子: ##data partitioning sub <- sample(nrow(data), floor(nrow(x) * 0.9)) training <- data[sub, ] testing <- data[-sub, ] ##model building model <- glm(formula = groupcol ~ var1 + var2 + var3, family = "binomial", data = training)
  • 如何在R中的glm模型中自动包括所有2向交互(How to automatically include all 2-way interactions in a glm model in R)
    问题 假设您正在使用R并将数据存储在数据帧M 。 那我知道 g <- glm(Y ~ ., data=M) 将自动拟合模型,其中Y是因变量, M所有其他列是预测变量。 是否有一种类似的简单方法来另外包含每两种交互方式? 回答1 您可以简单地使用.*.进行双向交互.*. 和任意的交互编写.^n 。 在每种情况下, formula(g)都会告诉您公式的扩展版本。
  • 在R中为水模型打印“漂亮”表(Print “pretty” tables for h2o models in R)
    问题 R有多个软件包,可帮助从统计模型输出中打印“漂亮”表(LaTeX / HTML / TEXT),并轻松比较替代模型规格的结果。 其中一些软件包是apsrtable , xtable , memisc , texreg , outreg和stargazer (有关示例,请参见此处:https: outreg -from-r-statistical-models-output /)。 是否有任何可比的R包支持h2o包的模型? 这是两个带有h2o简单GLM模型的示例,我希望将它们彼此h2o打印为“美丽”表。 # Load package and setup h2o library(h2o) localH2O <- h2o.init(ip = 'localhost', port = 54321, max_mem_size = '4g') # Load data prostatePath <- system.file("extdata", "prostate.csv", package = "h2o") prostate.hex <- h2o.importFile(path = prostatePath, destination_frame = "prostate.hex") # Run GLMs model.output.1 <- h2o.glm(y = "CAPSULE", x =
  • iPython 和 R 之间 GLM 结果的差异(Difference in GLM results between iPython and R)
    问题 我正在尝试在 R 中执行回归分析。以下是我在 R 中生成的一些随机虚拟数据,在 R 中运行逻辑 glm。我已将数据保存到测试文件中,将其读入 python ipython(顺便说一句,ipython notebook 很棒,才刚刚开始使用它!),然后尝试用 python 运行相同的分析。 结果非常相似,但又有所不同。 我本来希望他们是一样的。 我是否做错了什么,是否缺少我缺少的参数,或者由于某些基础计算而导致的差异? 任何帮助表示赞赏! 编辑:我不知道这是否需要关闭,但我用 Ben 编辑过的(更干净的)代码重新运行了一些东西,python 和 R 之间的结果现在是一样的。 我根本没有改变 python 代码,我以前的 R 代码和 Ben 的代码,虽然不同应该是(据我所见)做同样的事情。 不管这个问题的重点是什么,现在都没有实际意义。 尽管如此,感谢您的浏览。 生成随机数据并运行 glm: set.seed(666) dat <- data.frame(a=rnorm(500), b=runif(500), c=as.factor(sample(1:5, 500, replace=TRUE))) library(plyr) dat <- mutate(dat, y0=((jitter(a)^2+(-log10(b)))/(as.numeric(c)/10))+rnorm(500
  • LearnOpenGL学习笔记—入门:复习与总结
    LearnOpenGL学习笔记—入门:复习与总结 0 前言与回顾1 代码重构2 完整项目2.1 main.cpp2.2 Camera.h2.3 Camera.cpp2.4 Shader.h2.5 Shader.cpp2.6 fragmentSource.frag2.7 vertexSource.vert 【项目地址:点击 这里这里这里】 0 前言与回顾 在入门01中我们配置好了环境 在入门02中我们可以检测输入并出现一个有颜色的窗口 在入门03中我们初步学习了图形渲染管线,尝试用不同方法画出了三角形和四边形 在入门04(上)中我们学习了shader和GLSL的相关知识,并给图形加上了变换的颜色以及彩色。 在入门04(下)中我们建立自己的shader类,并能够从外部读取shader的内容。 在入门05中我们了解了有关材质的内容 在入门06中,我们尝试用旋转矩阵以及四元数的方法组成变换矩阵,让它动起来,并对四元数的理解进行了一定阐述。 在入门07中我们学习了坐标系统,了解了从3D空间得到2D平面的过程 在入门08中我们实现了用键鼠控制的欧拉角的摄像机。 至此为止我们能够创建一个窗口,创建并且编译着色器,通过缓冲对象或者uniform发送顶点数据,绘制物体,使用纹理,理解向量和矩阵,并且可以综合上述知识创建一个3D场景并可以通过摄像机来移动。 以下是对应的复习章节的词汇表: OpenGL
  • 如何调试线性模型和预测的“因数具有新水平”错误(how to debug “factor has new levels” error for linear model and prediction)
    问题 我正在尝试制作和测试线性模型,如下所示: lm_model <- lm(Purchase ~., data = train) lm_prediction <- predict(lm_model, test) 这将导致以下错误,指出Product_Category_1列的值存在于test数据帧中,而在train数据帧中不存在): 因子Product_Category_1具有新级别7、9、14、16、17、18 但是,如果我检查这些,它们肯定会出现在两个数据框中: > nrow(subset(train, Product_Category_1 == "7")) [1] 2923 > nrow(subset(test, Product_Category_1 == "7")) [1] 745 > nrow(subset(train, Product_Category_1 == "9")) [1] 312 > nrow(subset(test, Product_Category_1 == "9")) [1] 92 同时显示train和test表,表明它们具有相同的因素: > table(train$Product_Category_1) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 110820 18818 15820 9265 118955
  • LearnOpenGL学习笔记—高级OpenGL 03:混合
    LearnOpenGL学习笔记—高级OpenGL 03:混合 1 混合概念2 渲染完全透明和完全不透明2 混合实现3 渲染半透明纹理4 注意渲染的顺序5 代码 【项目地址:点击这里这里这里】 本节对应官网学习内容:混合 1 混合概念 在OpenGL中,混合(Blending)通常可以实现物体透明度(Transparency)。 透明是指一个物体(或者其中的一部分)不是纯色(Solid Color)的,它的颜色是物体本身的颜色和它背后其它物体的颜色的不同强度地结合。 一个有色玻璃窗是一个透明的物体,玻璃有它自己的颜色,但它最终的颜色还包含了玻璃之后所有物体的颜色。 这也是混合这一名字的出处,我们混合(Blend)(不同物体的)多种颜色为一种颜色。 下图展示了全透明窗户和带有颜色的窗户 透明的物体可以是完全透明的(让所有的颜色穿过),或者是半透明的(它让颜色通过,同时也会显示自身的颜色)。 一个物体的透明度是通过它颜色的aplha值来决定的,alpha颜色值是颜色向量的第四个分量。 在这个教程之前我们都将这个第四个分量设置为1.0,让这个物体的透明度为0.0,也就是不透明 而当alpha值为0.0时物体将会是完全透明的 当alpha值为0.5时,物体的颜色有50%是来自物体自身的颜色,50%来自背后物体的颜色。 我们目前一直使用的纹理有三个颜色分量:红、绿、蓝。
  • LearnOpenGL学习笔记—光照:复习与总结
    LearnOpenGL学习笔记—光照:复习与总结 0 前言1 词汇表2 完整项目2.1 main.cpp2.2 Camera.h2.3 Camera.cpp2.4 Shader.h2.5 Shader.cpp2.6 Material.h2.7 Material.cpp2.8 vertexSource.vert2.9 fragmentSource.frag2.10 LightSpot.h2.11 LightSpot.cpp2.12 LightDirectional.h2.13 LightDirectional.cpp2.14 LightPoint.h2.15 LightPoint.cpp 【项目地址:点击 这里这里这里】 0 前言 本节笔记对应官网学习内容:复习 在光照01中我们初识了颜色的概念,试着做了一下环境光 在光照02中我们学习了一下Phong光照模型与Blinn-Phong光照模型 在光照03中我们初识了材质的概念并封装了对应的类 在光照04中我们认识了光照贴图,丰富了材质的代码。 在光照05中我们讨论几种不同类型的投光物:平行光,点光,还有聚光 在光照06中我们把平行光,点光,还有聚光的方法进行了封装,创建一个包含六个光源的场景。 总的来说我们在学习光照教程的时候关于OpenGL本身并没有什么新东西。 目前为止的所有教程都是关于使用一些技巧或者公式来操作着色器
  • bruceR包使用指南:让R语言数据分析变得更简单
    本文既是对bruceR包的整体介绍,也可以作为R语言快速入门的参考资料。目录:1 / bruceR安装说明2021年3月19日,bruceR正式被“R语言程序包官方仓库CRAN”收录,成为了17346个被CRAN官方收录的R包中的一员![1]https://CRAN.R-project.org/package=bruceR https://www.rdocumentation.org/packages/bruceR这也意味着,从此可以使用install.packages("bruceR")来安装了!用过老版本bruceR的朋友都有体会:若从GitHub安装,非常耗时间,过程也非常坎坷。现在,bruceR大大缩减了依赖包的数量,并且有了CRAN官方收录,安装会变得更容易!安装方法## 方法1:从CRAN平台安装(正式版)install.packages("bruceR")## 方法2:从GitHub平台安装(开发版)install.packages("devtools")devtools::install_github("psychbruce/bruceR", force=TRUE, upgrade=FALSE)两者有什么不同呢?「CRAN正式版」安装过程会更快速、更顺畅(尤其对于国内用户)「GitHub开发版」则会保持最新状态
  • 如何打印通过引用传递的glm :: vec3类型的矢量值?(How do I print vector values of type glm::vec3 that have been passed by reference?)
    问题 我有一个小的obj loader,它需要两个参数并将它们传递回输入变量。.但这是我第一次这样做,我不确定现在如何打印所述值。 这是我测试加载程序是否正常工作的主要功能。 我有两个类型为glm::vec3向量来保存顶点和法线数据。 std::vector<glm::vec3> vertices; std::vector<glm::vec3> normals; int main() { bool test = loadOBJ("cube.obj", vertices, normals); for (int i = 0; i < vertices.size(); i++) { std::cout << vertices[i] << std::endl; // problem line } return 0; } 上面注释的行是生成无用信息的原因。 如果我就这样保留它并运行程序,我会冒出很多错误(未格式化且很长,无法在此处粘贴),如果我添加了引用运算符,则会得到如下输出: 0x711ea0 0x711eac 0x711eb8 0x711ec4 // etc 知道我在做什么错吗? 回答1 glm对此进行了扩展。 添加#include "glm/ext.hpp"或#include "glm/ext.hpp" "glm/gtx/string_cast.hpp" 然后以打印矢量为例: glm
  • 机器学习与物理科学(二)(Machine learning and the physical sciences)
    Machine learning and the physical sciences 摘要Ⅱ.统计物理(STATISTICAL PHYSICS)A.发展历史(Historical note)B.深度学习中的理论难题(Theoretical puzzles in deep learning)B.无监督学习中的统计物理( Statistical physics of unsupervised learning)1.有助于理解基本的无监督方法 ( Contributions to understanding basic unsupervised methods)2.受限玻尔兹曼机(Restricted Boltzmann machines)3.现代无监督学习与生成模型(Modern unsupervised and generative modelling) D.监督学习中的统计物理学(Statistical physics of supervised learning)1.感知器和GLM( Perceptron and GLMs)2.多层神经网络的物理研究结果)( Physics results on multi-layer neural networks)3.信息瓶颈(Information Bottleneck)4.深度学习的场景和复杂性( Landscapes and