Smoggy
  • Home
  • Archives
  • Categories
  • Tags
  • About
  •   
  •   

From Calculus of Variations to Largrangian Equation

最近复习了一下拉格朗日方程,重新思考了一下一些疑惑,这里记录一下从变分法到拉格朗日方程的推导过程以及这些疑惑的可能解答。 1. 变分法 考虑一个泛函: \[ J[y] = \int_{x_1}^{x_2} F(x, y, y') \, dx \] 其中 \(y = y(x)\) 是未知函数,\(y' = \frac{dy}{dx}\),\(F\) 是关于 \(x, y
2024-04-02
#Math #Chinese

Convex Optimization Note(3): Convex Optimization

1. Optimization Formulation Eliminating Linear Equality Constraints For a linear equation constraints \(Ax=b\), supposing the corresponding feasible set is \(S=\{x|Ax=b\}\). The constraint can be
2023-11-01
Convex Optimization
#Math #English

Convex Optimization Note(2): Convex Function

中文版笔记感觉这个博主总结的比较清楚 1. Convex Function Convex can also be used to describe the feature of a function. Definition: \[f(\theta x+(1-\theta) y)\leq\theta f(x) + (1-\theta)f(y)\] Conditions: First
2023-10-30
Convex Optimization
#Math #English

Convex Optimization Note(1): Affine Set and Convex Set

1. Convex Sets 1.1 Affine Set \(C\) Definition: \(\forall x_1,x_2\in C, \theta x_1+(1-\theta) x_2 \in C\) Property: Solution Set of Linear Equation \(\iff\) Affine Set(线性方程的解集是affine set,同时aff
2023-10-28
Convex Optimization
#Math #English

Ubuntu Lagging Solutions

最近解决了一下ubuntu卡顿的情况,梳理了一下造成卡顿的一些原因,便于之后排查。 1. 显卡驱动问题 ubuntu本身默认没有nvidia显卡驱动,需要手动安装,这里的过程不再赘述。判断显卡驱动有没有出问题可以通过以下几种渠道: 设置->关于 选项下查看显卡是否为独立显卡,如果驱动没有起作用,这里会显示核显。 在命令行输入 nvidia-smi 观察是否有输出 1
2023-08-04
#Ubuntu #Chinese
用Solidworks对无人机进行拓扑优化

用Solidworks对无人机进行拓扑优化

暑研期间帮师兄出了一版无人机的图,在画完基本框架后想通过拓扑优化的方法对机身进行减重。之前进行拓扑优化都是在ansys workbench里,在我尝试把模型导入ansys的过程中出现了很多问题,最后我决定还是直接在solidworks里完成拓扑优化,这里记录一下流程。 1. 概述 Solidworks Simulation中直接提供了拓扑优化的算例。目前只能针对单个零部件进行拓扑优化,无法
2022-08-26
CAD学习
#CAD #Chinese
Deep reinforcement learning(2): Actor-Critic

Deep reinforcement learning(2): Actor-Critic

1. 从策略梯度到Actor-Critic 上一章介绍了策略梯度的基本思想,最后得到的更新梯度的步骤可以写成如下形式: \[ \nabla_{\theta} J(\theta) \approx \frac{1}{N} \sum_{i=1}^{N} \sum_{t=1}^{T} \nabla_{\theta} \log \pi_{\theta}\left(\mathbf{a}_{i, t}
2022-08-23
Deep reinforcement learning
#RL #Chinese
Deep reinforcement learning(1): Policy gradient

Deep reinforcement learning(1): Policy gradient

此系列主要为 UCB CS285 深度强化学习系列课程学习笔记。 1. 问题描述 1.1 概率模型 忽略观测误差,深度强化学习解决的问题可以写成如下形式: 整个概率模型主要由两个部分组成,首先由当前状态\(s\)通过当前的策略\(\pi_\theta\)得到动作的概率分布,在动作的状态分布中采样得到下一步真正需要采取的动作\(a\),将\(a\)作用于实际系统中得到下一个状态的概率分布\
2022-07-15
Deep reinforcement learning
#RL #Chinese
2022阅读计划(1):霍乱时期的爱情

2022阅读计划(1):霍乱时期的爱情

阅读动机 2022年春天,笔者正在经历“新冠时期的爱情”。很早以前就听说过马尔克斯笔下曾经诞生过“霍乱时期的爱情”,原先认为笔者自己的经历中未曾出现过“霍乱”,对“爱情”的见解也很浅,这种状态恐怕无法体会其中的玄妙。很多时候文学诞生于现实,因此笔者一直认为缺乏现实经历会导致无法理解文学作品中传达的意境。这个时间节点重新捡起这本书也就是顺其自然的事情了。 然而较为可惜的是这篇小说刻画了霍乱与爱情
2022-05-26
2022阅读计划
#Reading #Chinese
使用Docker配置ROS noetic环境

使用Docker配置ROS noetic环境

1. 提要 最近需要将一段感知代码移植到实验室的pipeline上进行测试,然而之前一直在使用ROS_melodic,原始感知代码目前只在melodic上测试成功,为了实验室其他用noetic的老哥们能测试,就想搭建一个noetic的docker来尝试一下同样的代码能否在noetic上编译成功。(借机学习一下docker) 2. 安装过程 2.1 安装Docker 这一步基本参考Docke
2022-05-15
ROS学习
#ROS #Chinese
12

Search

Hexo Fluid