@@ -31,7 +31,7 @@ kernelspec:
31
31
32
32
在本节中,我们将解决一个简单的在职搜索模型
33
33
34
- * 基于 {cite}` Ljungqvist2012 ` 的练习 6.18 和 {cite}` Jovanovic1979 `
34
+ * 本讲基于 {cite}` Ljungqvist2012 ` 的练习 6.18 和 {cite}` Jovanovic1979 `
35
35
36
36
让我们从一些导入开始:
37
37
@@ -52,30 +52,30 @@ from numba import jit, prange
52
52
``` {index} single: 在职搜索; 模型特点
53
53
```
54
54
55
- * 结合在职搜索的工作特定人力资本积累
56
- * 具有一个状态变量和两个控制变量的无限期动态规划
55
+ * 模型结合了在职搜索和工作岗位特定的人力资本积累
56
+ * 这是一个包含一个状态变量和两个控制变量的无限期动态规划问题
57
57
58
58
## 模型
59
59
60
60
``` {index} single: 在职搜索; 模型
61
61
```
62
62
63
- 令 $x_t$ 表示在特定公司就职的劳动者在 t 时刻的工作特定人力资本 ,$w_t$ 表示当前工资 。
63
+ 设 $x_t$ 为劳动者在当前公司和工作岗位的人力资本水平 ,$w_t$ 为其当前工资 。
64
64
65
- 令 $w_t = x_t(1 - s_t - \phi_t)$,其中
65
+ 工资由以下公式决定: $w_t = x_t(1 - s_t - \phi_t)$,其中
66
66
67
- * $\phi_t$ 是对当前职位的工作特定人力资本投资,且
68
- * $s_t$ 是用于获取其他公司新工作机会的搜索努力。
67
+ * $\phi_t$ 表示劳动者在当前岗位为提高人力资本而付出的时间
68
+ * $s_t$ 表示寻找新工作机会的时间
69
69
70
70
只要劳动者继续留在当前工作,$\{ x_t\} $ 的演变由 $x_ {t+1} = g(x_t, \phi_t)$ 给出。
71
71
72
- 当 t 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [ 0, 1] $ 收到新的工作机会 。
72
+ 当 $t$ 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [ 0, 1] $ 得到新的工作机会 。
73
73
74
- 这个机会的价值(以工作特定人力资本衡量 )是 $u_ {t+1}$,其中 $\{ u_t\} $ 是具有共同分布 $f$ 的独立同分布序列。
74
+ 这个机会的价值(以力资本衡量 )是 $u_ {t+1}$,其中 $\{ u_t\} $ 是具有共同分布 $f$ 的独立同分布序列。
75
75
76
76
劳动者可以拒绝当前的工作机会并继续现有的工作。
77
77
78
- 因此,如果接受则 $x_ {t+1} = u_ {t+1}$,否则 $x_ {t+1} = g(x_t, \phi_t)$。
78
+ 因此,若劳动者接受了新的工作机会,则 $x_ {t+1} = u_ {t+1}$,否则 $x_ {t+1} = g(x_t, \phi_t)$。
79
79
80
80
令 $b_ {t+1} \in \{ 0,1\} $ 为二元随机变量,其中 $b_ {t+1} = 1$ 表示劳动者在时间 $t$ 结束时收到一个工作机会。
81
81
@@ -89,7 +89,7 @@ x_{t+1}
89
89
\max \{ g(x_t, \phi_t), u_{t+1}\}
90
90
```
91
91
92
- 代理人的目标 :通过控制变量 $\{ s_t\} $ 和 $\{ \phi_t\} $ 来最大化预期折现工资总和。
92
+ 模型中每个劳动者的目标 :通过控制变量 $\{ s_t\} $ 和 $\{ \phi_t\} $ 来最大化预期折现工资总和。
93
93
94
94
对 $v(x_ {t+1})$ 取期望并使用 {eq}` jd ` ,
95
95
这个问题的贝尔曼方程可以写成
@@ -113,7 +113,7 @@ $a \vee b := \max\{a, b\}$。
113
113
``` {index} single: On-the-Job Search; 参数化
114
114
```
115
115
116
- 在下面的实现中,我们将关注参数化
116
+ 在下面的实现中,我们将给以上模型添加参数化设定
117
117
118
118
$$
119
119
g(x, \phi) = A (x \phi)^{\alpha},
@@ -134,20 +134,20 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的
134
134
(jvboecalc)=
135
135
### 粗略计算
136
136
137
- 在我们求解模型之前,让我们做一些快速计算,以直观地了解解应该是什么样子 。
137
+ 在求解模型之前,让我们先做一些简单的计算,帮助我们直观理解模型的解 。
138
138
139
- 首先,注意到劳动者有两种方式来积累资本从而提高工资 :
139
+ 我们可以看到,劳动者有两种途径来积累资本并提高工资 :
140
140
141
- 1 . 通过 $\phi$ 投资于当前工作的特定资本
142
- 1 . 通过 $s$ 搜索具有更好的工作特定资本匹配的新工作
141
+ 1 . 通过 $\phi$ 投资于适用于当前工作人力资本
142
+ 1 . 通过 $s$ 搜寻更匹配岗位特定人力资本的新工作
143
143
144
144
由于工资是 $x (1 - s - \phi)$,通过 $\phi$ 或 $s$ 进行投资的边际成本是相同的。
145
145
146
- 我们的风险中性劳动者应该专注于预期回报最高的工具 。
146
+ 我们的风险中性劳动者应该专注于预期回报最高的方式 。
147
147
148
148
相对预期回报将取决于$x$。
149
149
150
- 例如,首先假设 $x = 0.05$
150
+ 例如,假设 $x = 0.05$
151
151
152
152
* 如果$s=1$且$\phi = 0$,由于$g(x,\phi) = 0$,
153
153
对{eq}` jd ` 取期望值得到下一期的预期资本等于$\pi(s) \mathbb{E} u
@@ -161,18 +161,16 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的
161
161
* 如果$s=1$且$\phi = 0$,那么下一期的预期资本仍然是$0.5$
162
162
* 如果$s=0$且$\phi = 1$,那么$g(x, \phi) = g(0.4, 1) \approx 0.8$
163
163
164
- 通过$\phi$投资的回报超过了搜索的预期回报 。
164
+ 在这种情况下,投资于岗位特定人力资本的回报高于搜索新工作的预期回报 。
165
165
166
166
综合这些观察,我们得到两个非正式的预测:
167
167
168
- 1 . 在任何给定状态$x$下,两个控制变量$\phi$和$s$将
168
+ 1 . 在任何给定状态$x$下,两个控制变量$\phi$和$s$主要呈现替代关系 --- 且劳动者会专注于预期回报较高的工具。
169
+ 1 . 对于足够小的 $x$,工作搜寻将优于岗位特定人力资本投资。而当$x$值较大时,结论则相反。
169
170
170
- 主要作为替代品 --- 劳动者会专注于预期回报较高的工具。
171
- 1 . 对于足够小的 $x$,搜索会比投资工作特定人力资本更可取。对于较大的 $x$,则相反。
171
+ 现在让我们转向模型实现,并验证是否与预测结果一致。
172
172
173
- 现在让我们转向实施,看看是否能验证我们的预测。
174
-
175
- ## 实施
173
+ ## 模型实现
176
174
177
175
``` {index} single: On-the-Job Search; Programming Implementation
178
176
```
@@ -211,7 +209,7 @@ class JVWorker:
211
209
self.x_grid = np.linspace(ɛ, grid_max, grid_size)
212
210
```
213
211
214
- 函数` operator_factory ` 接收这个类的实例并返回Bellman算子 ` T ` 的jit编译版本 ,即:
212
+ 函数` operator_factory ` 接收这个类的实例并返回jit编译的贝尔曼算子 ` T ` ,即:
215
213
216
214
$$
217
215
Tv(x)
@@ -352,7 +350,7 @@ def solve_model(jv,
352
350
return v_new
353
351
```
354
352
355
- ## 求解政策
353
+ ## 策略求解
356
354
357
355
``` {index} single: 在职搜索; 求解政策
358
356
```
@@ -367,11 +365,11 @@ v_star = solve_model(jv)
367
365
s_star, ϕ_star = get_greedy(v_star)
368
366
```
369
367
370
- 以下是这些图表 :
368
+ 我们绘制以下图表 :
371
369
372
370
``` {code-cell} ipython3
373
371
plots = [s_star, ϕ_star, v_star]
374
- titles = ["s策略 ", "ϕ策略 ", "价值函数"]
372
+ titles = [r"$s$策略 ", r"$\phi$策略 ", "价值函数"]
375
373
376
374
fig, axes = plt.subplots(3, 1, figsize=(12, 12))
377
375
@@ -384,7 +382,7 @@ axes[-1].set_xlabel("x")
384
382
plt.show()
385
383
```
386
384
387
- 横轴表示状态 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。
385
+ 横轴表示状态变量 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。
388
386
389
387
总的来说,这些策略与我们在{ref}` 上文<jvboecalc> ` 中的预测相符
390
388
@@ -519,8 +517,8 @@ def xbar(ϕ):
519
517
520
518
ϕ_grid = np.linspace(0, 1, 100)
521
519
fig, ax = plt.subplots(figsize=(9, 7))
522
- ax.set(xlabel='$\phi$')
523
- ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label='$w^*(\phi)$')
520
+ ax.set(xlabel=r '$\phi$')
521
+ ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label=r '$w^*(\phi)$')
524
522
ax.legend()
525
523
526
524
plt.show()
0 commit comments