Deep Work

最近在读 卡尔.纽波特的 深度工作, 以下是阅读的一点感悟和笔记. 深度工作是 21 世纪的超级力量 作者介绍: 卡尔·纽波特,畅销书作家,人气博主,创办了在美国很受欢迎的博客“学习黑客”,破解工作和学习领域的成功模式。 关于本书 这是一本自我管理类书籍,讲述了在碎片化时代,如何训练大脑排除干扰,提高大脑的深度思维能力,创造更多价值。这本书的英文原版2016年在美国出版,一发行就占据了亚马逊美国网站的职场励志书榜首。 几个问题: 在职场中,为什么有些人越忙碌越无法产出有价值的成果? 又该如何通过训练大脑排除干扰,提高深度思维能力,创造更多价值? 这本书从2个方面解释了大部分人无法进行深度工作的原因,并给出了培养深度工作的4个步骤,分别是: 选择适合自己的深度工作模式 将工作内化成习惯 像经商一样去执行 适当减少整体工作时间遵循这几个步骤进行刻意练习 概念介绍 深度工作(Deep Work): 在没有干扰的情况下专注的进行职业活动, 使个人的认知能力达到极限, 这种努力能够创造新价值, 提升技能, 而且难以复制. 肤浅工作(shallow work): 对认知要求不高的任务, 在收到干扰的情况下也能进行, 此类工作创造的价值不高, 且容易复制. 深度工作的重要性 作者前面花了大量篇幅说明深度工作的重要性, 其中关于注意的论断深以为然. 快速学习复杂的技能, 这能为我们带来价值, 这件事需要深度工作. 但是现实生活中, 网络工具使我们分心, 导致专注能力的下降. 不分心是很难的, 我们都有一种冲动就是, 把自己的注意力转移到肤浅的事物上. 比如, 工作累了或者遇到难题了就要刷刷社交网络, 但是这种行为其实还是在消耗着你的注意力和能量. 你的意志力是有限的, 它在使用的过程中是不断的被消耗的. 而进入深度工作状态是需要意志力能量, 如何使得这个转化过程变得容易使我们应该掌握的技巧. 简而言之, 我们增加深度工作的评率, 而减小转移到肤浅工作的冲动和频率. 我们都有过类似的经历, 打开 word 文档, 准备写论文和报告, 一瞬间脑袋空白, 这时候平时不相干的事情, 突然都变得可爱起来, 比如: 洗完, 扫地, 洗衣服, 收拾房间, 下楼买💊, 总之只要是不是写论文, 什么其他能拖延这件事情的事, 我们都愿意干.

Continue reading

简单来说神经网络和我们一般的编程区别在于: 一个是输入数据和函数规则, 然后得到结果. 而神经网络是输入数据和答案, 通过迭代学习, 神经网络能学习出函数规则.如下图: 举个简单的例子, 这里有两组数据: X: -1, 0, 1, 2, 3, 4 Y: -3, -1, 1, 3, 5, 7 你可以把 x 看做是数据, y 看做是答案, 现在你要做的是找到其中的函数关系, 这个关系能够帮助我们, 用 x 去预测 Y 的值(假设你没有学过解方程组). 最常用的方法就是归纳法, 首先你根据第一对数据猜一个对应关系规则, 拿着这个规则计算答案值, 评估计算的答案和真实答案差多远, 然后在调整你的规则, 继续评估, 直到你的规则能够拟合所有的数据. 这就是神经网络的逻辑过程. 我们来看一个简单的神经网络的例子 1.Import: 加载所需模块 import tensorflow as tf ## /Users/zero/anaconda3/envs/tfdeeplearning/lib/python3.5/importlib/_bootstrap.py:222: RuntimeWarning: compiletime version 3.6 of module 'tensorflow.python.framework.fast_tensor_util' does not match runtime version 3.5 ## return f(*args, **kwds) import numpy as np from tensorflow import keras 2.

Continue reading

介绍 iPhone 的 health APP 存储着我们的私人健康数据, 这里有一篇帖子是用 Python 分析 health APP 的数据Apple Health Data How to Export Analyze Visualize Guide - ryanpraski.com , 而我更喜欢 R 的版本. 让我们赶紧开始吧!! 首先获取数据并读取 从你的 health APP 应用中导出数据 在 R 中读取数据 加载包并读入数据 library(XML) library(tidyverse) library(lubridate) library(scales) library(here) library(ggthemes) xml <- xmlParse(here("data/apple_health_export/export.xml")) summary(xml) ## $nameCounts ## ## Record ExportDate HealthData Me Workout ## 90037 1 1 1 1 ## ## $numNodes ## [1] 90041 Record 是我的主要数据, 有 90,037 条

Continue reading

逃往北上广

奋斗,应该是一种生活方式, 登山并不全是为了登顶的那一刻 只有不停奋斗的人生,才有意义,才活的有劲儿,混吃等死的日子其实是很艰难的,无聊死了,一头扎进人堆儿里不停的扑棱才有意思啊! 逃往北京、上海、广州、深圳 在家乡,在那个你生长了二三十年的小城镇,如果你拒绝过上和所有人一样循规蹈矩的生活,拒绝结婚生子,拒绝稳定工作,拒绝放弃影响你赚钱升职的爱好,那么你就变成了一头和周围的一切格格不入的怪物。 于是大家要挽救你,要教育你,要让你学会认命,停止毫无意义的折腾,这样你才能和大家一样“踏踏实实过日子”。 许多人因此选择了对抗,在愤怒中慢慢变得绝望,在绝望中变得麻木,在麻木中逃往虚无

Continue reading

背景 pubchunks 的目的是从XML格式的学术文章中获取部分数据。我们不需要了解XML及其所有的格式原理。只需知道我们的文件或XML字符串在哪里以及我们想要每篇文章的哪些部分。然后用户可以组合这些部分并做我们希望下游的任何事情; 例如,分析文本结构 pubchunks中的函数 两个主要功能是: pub_chunks():获取XML部分 pub_tabularize():强制输出pub_chunks()到data.frame中 pub_guess_publisher():从XML文件或字符串猜测发布者 pub_sections():部分pubchunks知道如何处理 pub_providers():提供者(即发布者)pubchunks知道如何明确处理 支持的出版商 elife plos elsevier hindawi pensoft peerj copernicus frontiers f1000research 支持提取的部分有: Front - 发布者,期刊和文章元数据元素 Body - 文章的正文 Back - 文章的背面,致谢,作者贡献,参考文献 Title - 文章标题 Doi - 文章doi Categories - 发布商的类别,如果有的话 Author - 作者 Aff - 隶属关系(包括作者姓名) Keyword - 关键字 Abstract - 文章摘要 Executive_summary - 文章执行摘要 Refs - 参考文献 Refs_dois - 参考dois - 如果有的话 Publisher - 发布者名称 Journal_meta - 期刊元数据 Article_meta - 文章元数据 Acknowledgments - 致谢 Permissions - 文章权限 History - 日期,收到,出版,接受等 安装 #install.

Continue reading

What Is Clean Data Each variable is a column Each observation is a row Each type of observational unit is a table A table with one-token-per-row. A token is a meaningful unit of text, such as a word, that we are interested in using for analysis, and tokenization is the process of splitting text into tokens. text <- c( "Because I could not stop for Death -", "He kindly stopped for me -", "The Carriage held but just Ourselves -", "and Immortality" ) text ## [1] "Because I could not stop for Death -" ## [2] "He kindly stopped for me -" ## [3] "The Carriage held but just Ourselves -" ## [4] "and Immortality" library(dplyr) text_df <- data_frame(line = 1:4, text = text) text_df ## # A tibble: 4 x 2 ## line text ## <int> <chr> ## 1 1 Because I could not stop for Death - ## 2 2 He kindly stopped for me - ## 3 3 The Carriage held but just Ourselves - ## 4 4 and Immortality library(tidytext) text_df %>% unnest_tokens(word, text) ## # A tibble: 20 x 2 ## line word ## <int> <chr> ## 1 1 because ## 2 1 i ## 3 1 could ## 4 1 not ## 5 1 stop ## 6 1 for ## 7 1 death ## 8 2 he ## 9 2 kindly ## 10 2 stopped ## 11 2 for ## 12 2 me ## 13 3 the ## 14 3 carriage ## 15 3 held ## 16 3 but ## 17 3 just ## 18 3 ourselves ## 19 4 and ## 20 4 immortality For tidy text mining, the token that is stored in each row is most often a single word, but can also be an n-gram, sentence, or paragraph

Continue reading

Case Study: Sentiment Analysis Data Prep import pandas as pd import numpy as np # Read in the data df = pd.read_csv('/Users/zero/Desktop/NLP/raw-data/Amazon_Unlocked_Mobile.csv') # 对数据进行采样以加快计算速度 # Comment out this line to match with lecture df = df.sample(frac=0.1, random_state=10) df.head() .dataframe thead tr:only-child th { text-align: right; } .dataframe thead th { text-align: left; } .dataframe tbody tr th { vertical-align: top; } <tr style="text-align: right;"> <th></th> <th>Product Name</th> <th>Brand Name</th> <th>Price</th> <th>Rating</th> <th>Reviews</th> <th>Review Votes</th> </tr> <tr> <th>394349</th> <td>Sony XPERIA Z2 D6503 FACTORY UNLOCKED Internat.

Continue reading

Author's picture

Jixing Liu

Reading And Writing

Data Scientist

China