131-1198-7613
NEWS
网站建设、网站制作、网站设计等相关资讯

vip会员查权重_会员专区查察会员(会员查看)

首页 >> 新闻资讯 作者:磁力SEO 来源:磁力SEO - 搜索引擎优化技巧 日期:2025-02-18

  把一些干系的常识点总结一下。这个比长,感爱好的挑自己干系的那部门看。

  都是一些根本常识,面干系岗位问到的比较多。

  (回复时对算法要有必定的见解,最好不要照书上的背)

  (一) 机器进修方面

  SVM

  1、 支撑平面---和支撑向量相交的平面;;;分割平面---支撑平面中间的平面(最优分类平面)

  2、 SVM不是定义损失,而是定义支撑向量之间的隔断à目的函数看PPT13~17页

  3、 正则化参数对支撑向量数的影响

  LR

  1、 LR的形式:h(x)=g(f(x));其中x为原始数据;f(x)为线性/非线性回归获得的值,也叫鉴定界限;g()为Sigmoid函数,最终h(x)输出局限为(0,1)

  LR对样本分布敏感。

  ***LR和淳厚贝叶斯(NB)的区别?

  LR是loss最优化求出的,NB是统计跳过loss最优,直接得出权重

  NB比LR多了一个前提自力假设

  一个是辨别模型(LR),一个是生成模型(NB)

  1、 辨别模型和生成模型???

  2、 机器进修中,LR和SVM有什么区别?à

  两者都可以处置惩罚处罚非线性标题;LR和SVM最初都是针对二分类标题的。

  SVM最大化间隔平面、LR极大似然估计;SVM只能输出类别,不能给出分类概率

  两者loss function不同;LR的可表白性更强;SVM自带有约束的正则化

  2、LR为什么用sigmoid函数,这个函数有什么优点和弱点?为什么不用其他函数?(sigmoid是伯努利分布的指数族形式)

  Logistic Regression 只能用于二分类,而sigmoid对于所有的输入,获得的输出接近0或1

  Sigmoid存在的标题:梯度消失、其输出不是关于原点中间对称的(操练数据不关于原点对称时,收敛速度很是慢à输入中间对称,获得的输出中间对称时,收敛速度会很是快)、打定耗时

  Tanh激活函数存在的标题:梯 度消失、打定耗时,可是其输出是中间对称的

  ReLU:其输出不关于原点对称;反向流传时,输沉迷经元小于0时,会有梯度消失标题;当x=0时,该点梯度不存在(未定义);

  ReLu失活(dead RELU)缘故因由:权重初始化不妥、初始进修率配置的很是大

  Maxout:凭据配置的k值,响应的增大了神经元的参数个数

  Xavier权重初始化方法:对每个神经元的输入开根号

  3、 SVM原标题和对偶标题关系?

  SVM对偶标题的获得方法:将原标题的目的函数L和约束前提机关拉格朗日函数,再对L华夏参数和lambda、miu别离求导,并且三种导数都便是0;再将便是0的三个导数带入原目的函数中,即可获得对偶标题的目的函数

  关系:原标题的最大值相对于对偶标题的最小值

  4、 KKT(Karysh-Kuhn-Tucker)前提有哪些,完整描摹?

  KKT前提是思索奈何把约束优化转化为无约束优化à进而求约束前提的极值点

  下面两个思索题的谜底都是在须要优化的目的为凸函数(凸优化)的情况下。

  标题一:当一个优化标题是凸优化标题时,可以直接用KKT前提求解。

  5、 凸优化(可行域为约束前提组成的地域)

  5、 SVM的过程?Boost算法?

  6、 决定树过拟合哪些方法,前后剪枝

  决定树对操练属性有很好的分类本事;但对位置的测试数据未必有好的分类本事,泛化本事弱,即发生过拟合。

  防止过拟合的方法:剪枝(把一些干系的属性归为一个大类,镌汰决定树的分叉);随机森林

  7、 L1正则为什么可以把系数压缩成0,坐标回归的详细实现细节?

  L1正则化可以实现希罕(即截断),使操练获得的权重为0;

  l1正则会产生希罕解,即不干系的的特征对应的权重为0,就相当于低沉了维度。可是l1的求解复杂度要高于l2,并且l1更为流行

  正则化就是对loss进行惩罚(加了正则化项之后,使loss不或许为0,lambda越大惩罚越大--lambda较小时,约束小,或许仍存在过拟合;太大时,使loss值汇合于正则化的值上)

  正则化操纵方法:L1/L2/L1+L2

  8、 LR在特征较多时可以进行奈何的优化?--L1正则有特征选择的作用

vip会员查权重_会员专区查看会员 vip会员查权重_会员专区查察会员(会员查看) 搜狗词库

  如果是离线的话,L1正则可以有希罕解,batch大点应该也有资助,在线的打点思路有ftrl,rds,robots,尚有阿里的mlr。当然还可以用gbdt,fm,ffm做一些特征选择和组合应该也有成果。

  9、 机器进修里面的聚类和分类模型有哪些?

  分类:LR、SVM、KNN、决定树、RandomForest、GBDT

  回归:non-Linear regression、SVR(支撑向量回归--可用线性或高斯核(RBF))、随机森林

  聚类:Kmeans、层次聚类、GMM(高斯肴杂模型)、谱聚类

  10、 聚类算法(可以作为监视进修中希罕特征的处置惩罚处罚):Kmeans、层次聚类、GMM(高斯肴杂模型)

  聚类算法唯一用到的信息是样本和样本之间的相似度。

  评判聚类成果准则:高类间距,低类内距;高类内相似度,低类间相似度。

  相似度与隔断负干系。

  图像之间的隔断的怀抱是对每个像素利用,最后获得隔断

  Kmeans和GMM须要拟订类别K

  A、Kmeans算法:对于已有的未标志的样本,同时给定成果聚类的个数K;目的是把比较接近的样本归为一类,总共获得k个cluster

  Kmeans中初始k个中间点(Kmeans对中间点的选取比较敏感)的选取方法:a、随机选取k个初始的样本中间点(b、直接选取k个样本点),然后打定每个样本到k个选定的样本中间点的隔断;再比较待聚类样本到初始样本点的隔断,将待聚类的样本指定为隔断较近的各个类别(离哪个近,就归为哪一类);最后从头打定聚类中间:;重复迭代。

  Kmeans收敛状况:

  (1)聚类中间不再厘革(2)每个样本到对应聚类中间的隔断之和不再有很大的厘革

  损失函数àloss function反面的||xn-uk||^2表示采纳欧式隔断作为隔断怀抱:

  Kmeans可以用于图像分割;

  Kmeans的弱点:对初始样本点的选取敏感;对很是点(如:一个远离大大都点的孤立的点)的免疫欠好;对团状数据点成果较好,对带状成果欠好;

  Kmeans与Kmeans++初始化的区别:Kmeans初始样本点的选取是随机选取的;Kmeans++是选取最远的k个点作为初始样本点

  A、 层次聚类

  有两种层次聚类--)bottom-up(从多个类聚成一个类--每次都是合并最相似的两个类)、up-bottom(一个类到多个类--每次都剔除最不相似的类);层次隔断是一种树状结构

  Kmeans与层次聚类对比:

  C、高斯肴杂模型à由单高斯模型线性加权组合

  初始参数:样本点属于各个高斯函数的概率,以及每个高斯函数的均值和方差(参数都是随机给定)

  GMM求解过程àEM算法求解

  E-step(由已知的均值和方差估算在该参数下的样本点的分布)和M-step(由样本点的分布再求均值和方差)是EM算法。

  à这和EM求解的过程一样

  Kmeans是硬聚类(每个样本只能属于某一类);而GMM对于每个样本点,都有属于每个类的概率。

  GMM优势:多个分布的组合、速度快(EM算法求解)、最大数据似然概率

  GMM劣势:对初始化值敏感,等闲陷入局部最优、需指定k个高斯分布;对非凸分布数据集成果欠好。

  11、 kmeans的分类过程,用kmeans的数据有什么样的分布(高斯分布),loss函数是啥?

  见标题“9”

  12、 逻辑斯特回归和线性回归的损失函数?

  13、 正则化为什么能防止过拟合?(https://www.zhihu.com/question/20700829)

  过拟合表示在操练数据上的误差很是小,而在测试数据上误差反而增大。其缘故因由日常是模型过于复杂,太过得去拟合数据的噪声. 正则化则是对模型参数添加先验,使得模型复杂度较小,对于噪声的输入扰动相对较小。

正则化时,相当于是给模型参数w 添加了一个协方差为1/lambda 的零均值高斯分布先验。对于lambda =0,也就是不添加正则化约束,则相当于参数的高斯先验分布有着无限大的协方差,那么这个先验约束则会很是弱,模型为了拟合所有的操练数据,w可以变得尽情大不稳固。lambda越大,表白先验的高斯协方差越小,模型约稳固,相对的variance(方差)也越小。

  10、要害词

  1、操练集测试集验证集别离方式

  https://www.zhihu.com/question/26588665/answer/33490049

  2、TPR(Recall)、FPR、ROC 、AUC(与正确率和召回率有关)

  https://blog.csdn.net/feiyang2010jin/article/details/50547365

  3、坐标轴下降法-用来打点loss function对参数不行导时(此时梯度下降算法不再有用),求取参数更新量的方法

  坐标轴下降法和梯度下降法具有同样的脑筋,都是沿着某个偏向不绝迭代,可是梯度下降法是沿着当前点的负梯度偏向进行参数更新,而坐标轴下降法是沿着坐标轴的偏向。

  https://blog.csdn.net/ymmxz/article/details/69396222

  lasso(Least absolute shrinkage and selection operator)

  坐标轴下降法和最小角回归法(https://blog.csdn.net/bbbeoy/article/details/72523540)都是求解Lasso回归的方法。

  4、批量梯度下降算法BGD,小批量梯度下降法MBGD,随机梯度下降算法SGD的比较

  https://blog.csdn.net/yMMxz/article/details/69371926

  5、进修率褪火 (衰减)--没进修几多次城市将进修率镌汰(lr/decay_rate)

  6、多分类标题转二分类方法--组合多个二分类器来实现多分类器,方法如下:

  a.一对多法(one-versus-rest,简称OVR SVMs)。操练时依次把某个类别的样本归为一类,其他剩余的样本归为另一类,这样k个类别的样本就机关出了k个SVM。分类时将未知样本分类为具有最大分类函数值的那类。

  b.一对一法(one-versus-one,简称OVO SVMs或许pairwise)。其做法是在尽情两类样本之间打算一个SVM,因此k个类别的样本就须要打算k(k-1)/2个SVM。当对一个未知样本进行分类时,最后得 票最多的类别即为该未知样本的类别。

  c.层次支撑向量机(H-SVMs)。层次分类法首先将所有类别分成两个子类,再将子类进一步别离成两个次级子类,如此轮回,直到获得一个单独的类别为止。

  分析:LR的多分类也可以用上面的方法。

  https://blog.sina.com.cn/s/blog_4af0fab001010ybp.html

vip会员查权重_会员专区查看会员 vip会员查权重_会员专区查察会员(会员查看) 搜狗词库

  https://blog.sina.com.cn/s/blog_4c98b96001009b8d.html

  1、 跳出局部极小值方法

  --优化方法,如momentum updata、Adam等;调整进修率

  4、明明性查验

  5、线性回归、广义线性回归

  7、最小二乘误差及其概率表白

  9、LDA(二类、多类)

  11、类别不平衡打点方法:欠采样、过采样、阈值移动

  12、模型融合方法:bagging、随机森林、ADABOOST、 Gradient Boosting Tree

  前面两种是综合多个模型的成果;反面两个是重复操练

  Bagging--模型融合(随机森林也属于模型融合);有两种方法(bagging对淳厚贝叶斯没什么用,因为NB太稳固,抬举不大)

  ADABOOST(boosting一类的算法)的步伐--重复迭代和操练;每次分配给错的样本更高的权重;最简朴的分类器(如:线性分类器的二分类)叠加

  ADABOOST分类过程详细表白如下:先用一个简朴的分类器将样本分成两类;为分错的样本分配更高的权重(初始权重设为1/N即可,N为样本数);重复上次两个过程(再次分类,并为错误的样本配置更高的权重);最后将所有样本数据准确分类后,将各个分类器叠加。

  Gradient Boosting Tree:和Adaboost的思路类似,打点回归标题。

  14、 决定树、随机森林、GBDT、XGBOOST

  A、决定树(有监视进修):

  创建决定树的要害,即在当前状况下选择哪个属性作为分类依据。凭据不同的目的函数,创建决定树紧张有一下三种方法:ID3、C4.5、CART

  B、Bootstraping:不须要外界资助,仅依赖自身力气让自己变得更好。

  C、随机森林(bagging+决定树):

  Bootstrap采样:有放回的重复抽样

  D、Adaboost:

  教程第11节 决定树随机森林……pdf –p37

  E、 GBDT—梯度下降决定树(有监视进修)

  15、 熵 信息增益(ID3算法)、信息增益率(C4.5算法)、基尼系数(CART)

  教程第11节 决定树随机森林……pdf -p10

  16、 投票机制

  1)一票否决(平等表决)、2)少数坚守大都、3)有用大都(加权)

  16、数值优化理论:梯度下降、牛顿、共轭梯度

  牛顿法(dk为更新量)--引入了二阶偏导(Hessian矩阵)--求解无约束优化(迭代的初始值日常是随机选取的)

  弱点:不能保证Hessian矩阵(二阶偏导组成的矩阵)必定可逆

  17、SVM、SVR、软间隔SVM、SMO

  18、SVM核函数

  核函数紧张是将线性不行分的数据映射到高位空间再进行分类

  核函数的种类:

  高斯核是用的最多的核函数à对操练数据分类成果最好

  高斯核的弱点:等闲过拟合,须要更多的样本、泛化本事弱

  19、隔断方法:闵科夫斯基 、VDM、马氏隔断

  20、K-means、KNN、LVQ、DBSCAN、谱聚类

  21、降维方法:LDA、PCA、SVD

  22、特征选择方法:总体分为过滤型、包裹型、嵌入型(à基于模型的;如:正则化)

  Relief、LVW、正则化(L1/L2)

  特征选择的缘故因由:特征存在冗余(特征干系度太高)、掺杂了噪声(特征对推测成果有负影响)

  L1正则化是截断效应(实现希罕,把不干系的特征的系数酿成0);L2正则化是缩放效应,使最后获得的参数很小

  25、交错熵?KL散度(也叫KL隔断)?

  25、最大熵模型、EM(Expectation Maximization)算法

  最大熵模型的求解可以转化为对偶标题的极大化;

  26、特征--数据中抽取出来的对成果推测有用的信息

  特征工程--操纵专业背景常识和本事处置惩罚处罚数据,使得特征能在机器进修算法上施展很好的作用的过程。

  27、交错验证

  K折交错验证(K-flod cross validation)

  https://www.cnblogs.com/boat-lee/p/5503036.html

  将操练集分成K份;依次将第i(i=k,…,1)折作为交错验证集,此外k-1折(除第i折外)作为测试集;总共进行k次,每进行完一次操练,都用test data去测试,获得k个正确率;最后取k个正确率的均值作为最后成果。

  28、过拟合和欠拟合

  欠拟合(under fitting):参数过少,不够以表达数据的特征

  过拟合(over fitting):参数过多,过渡拟合数据,泛化本事差(操练时的正确率很好,但测试的时间就很差)

  欠拟合打点方法:找更多的特征;减小正则化系数

  (二)深度进修方面

  1、MLP的BP过程?delta的意义?每一层节点的残差?

  2、max pool层怎么做的?

  3、caffe架构?caffe奈何构建收集?

  4、去卷积过程(转置卷积)?https://blog.csdn.net/fate_fjh/article/details/52882134

  5、单个神经元是否线性可分(模式识别的概念,是否能用用线性函数将样本分类)?

  是否线性可分是对于样本集的;线性可分是数据会萃的性质,和分类器没啥关系。

  可以通过线性函数分类的即为线性可分

  6、深度进修模型的成长?深度进修的评价尺度?

  7、强化进修应用场景和方法?adaboost和cascade adaboost?损失函数有哪些?分类回归聚类的区别与联系?目的检测的三种方法?

  8、目的检测常用的收集,RCNN, SPP, Fast RCNN, Faster RCNN的区别?

  9、随机梯度下降,尺度梯度?softmax公式?信息熵公式?

  10、SVM和softmax的区别?

  Svm具有附加稳固性,当样例满足界限前提时,该样例不会影响损失函数;而softmax将考虑所有的样例

  11、操练时,mini-batch与GPU的内存匹配--操练收集时的mini batch是由GPU的内存决定的。

  12、正则化:正则化表示的是对高维度W的惩罚力度,当正则化系数(lambda)很大时,使w变的很是小,最终的成果是函数变得很是平滑。正则化系数(lambda)越小,拟合水平越高,成果越好。

  13、batch normalization中gamma和beta初始化为1和0,然后在操练中优化他们

  BN可以镌汰dropout(可以不要dropout)

  14、当操练到最后,loss值很大,但精度在上升?--分析loss厘革很小,须要增大进修率

  梯度爆炸(loss发散,呈现nan)--进修率很大,须要减小进修率

  15、如果loss最先不断稳固,可是从某点最先下降的缘故因由à因为初始值选定的欠好,错误的初始值会让梯度一最先接近0。

  16、优化战略的比较:

  https://www.cnblogs.com/denny402/p/5074212.html

  SGD--Momentum updata--Nesterov Momentum updata--AdaGrad update-- RMSProp update--Adam update

  以上都是一阶优化方法,对于二阶优化方法(BFGS和L-BFGS),二阶优化方法不须要进修率这个参数,可以直接对目的进行优化。

  SGD:凭据梯度直接更新w

  Momentum updata:不是通过打定获得的梯度直接更新w,而是增加一个变量V(定义为速度),改变了和梯度直接干系,再用V更新w

  Nesterov Momentum updata:更新方式

  AdaGrad update:每个参数自适应进修速度的方法(因为参数空间的每一维都有自己的进修速度,它会凭据梯度的规模的大小动态厘革)

  长时间操练时,AdaGrad算法会发生什么?--凭据更新公式,不绝有正数加到cache中,更新步长会逐渐衰减到0,最后完全禁止进修。

  1e-7:平滑因子,防止除数酿成0

  RMSProp update:打点了AdaGrad中会禁止更新的标题

  Adam update:

  adagrad记载的是梯度的二阶矩,并按指数和形式表示

  Momentum的作用:稳固梯度的偏向

  17、模型集成

  先单独操练多个不同的模型;在操练时,将每个模型的成果取匀称值即可。--可抬举精度

  弱点是必需单独操练不同的模型

  18、Cross entropy loss 和sigmod Cross entropy loss的区别?

  https://blog.csdn.net/u012235274/article/details/51361290

  看博文里写的就没啥区别

  SmoothL1Loss

  优势:smoothL1Loss在接近0的时间,看起来像二次函数

  SoftMaxWithLoss

  19、没有隐蔽层的神经收集是线性的,只能处置惩罚处罚线性可分的标题(线性可分标题从二维角度看,即分界限是一条直线,多维就是存在线性超平面将其分类)。

  20、卷积神经收集中,在没有zero-padding的情况下,当输入为7*7,filter为3*3,stride为3是,这里的stride是不承诺这样配置的,因为这样的话输出就是2.333*2.333(不是整数),所以zero-padding禁止了这种情况的发生

  Zero-padding的另一种作者用,就是禁止图像在卷积神经收集中向前流传时,图像提取出来的特征越来越小,zero-padding可以保证图像的尺寸。

  21、定位和检测的区别:

  区别在于要找的目的的数目;

  对于定位,图像中只有一个或一种对象,用框标出对象的位置

  对于检测,图像中有多个目的或多种对象。

  23、数据不够时:

  数据增强、transfer learning(fine-tuning:凭据数据集的大小,操练收集的最后一层或许最后几层)、修改收集

  Fine-tuning:固定收集,即为进修率为0、须要操练的层的进修率比较高(本来操练好的收集的进修率的很是之一)、当预操练的层(中间层)须要改变时,进修率很小(如原进修率的一百分之一)

  24、goolenet和resnet顶用到的结构(瓶颈结构 bottlenecks:输入输出类似)

  1x1的卷积层相当于全连接层--遍历所有像素

  3x3的卷积可以更换成1x3和3x1的差池称卷积(inception v3)--镌汰参数

  25、CNN中 卷积的实现

  傅里叶变动可以用于大卷积核的运算

  im2col(紧张的):

  caffe和torch不支撑操纵16位打定。

  26、WindowDataLayer(窗口数据),用于检测,可以读取hdf5数据。

  27、Caffe中的交错验证?

  定义两个prototxt文件(操练阶段和测试阶段),train_val.prototxt和deploy.prototxt;后者用于测试汇合,测试阶段的train_val.prototxt用于验证。

  28、其他框架?

  Torch--C和Lua语言写的,Torch中紧张的是Tensors类

  TensorFlow--pip安装,TensorBoard为可视化工具 ,支撑多GPU,支撑分布式操练(多机),支撑RNN

  Theano、MxNet、

  29、语义分割(Semantic Segmentation)和实例分割(Instance Segmentation)

  语义分割--利用像素,标志每个像素所属的标签à不关心详细的类,统一类目的标志为类似的像素

  实例分割à 输出类别同时标志像素(同时检测并分割)--关心目的的类,不同目的标志为不同的像素(统一类中的目的也标志为不同 的像素)

  分割时操纵全卷积收集(以filter为1*1的卷积层更换fc层,利用每个像素)可以获得所有像素的标签,而不用先将图像分成许多小块,再通过卷积为块 的中间像素分类(这样就很耗时)

  30、反卷积(卷积转置)

  31、Spatial Transformer Networks(空间变动收集)

  32、无监视进修

  聚类等、PCA(线性的)

  自动编码器(Auto encoder)、Generative Adversarial Networks(GAN)

  (三)图像方面

  1、opencv遍历像素的方式?

  2、LBP道理?

  3、HOG特征打定过程,尚有介绍一个应用HOG特征的应用?

4、opencv里面mat有哪些机关函数?

5、奈何将buffer典范转化为mat典范?

6、opencv奈何读取png花样的图片?(我貌似记得opencv不能读取png花样的图片,似乎每种花样图片的表头不一样,须要转化,给他说了半天他,他也没大白)

7、opencv奈何读取内存图片?

8、opencv里面有哪些库?

9、用过opencv里面哪些函数?(我顺带回复了一下canny,HR又问opencv里面有c-a-n-n-y有这几个字母的函数吗,尴尬。。。又问我奈何自己写canny边缘检测算法)

10、opencv里面为啥是bgr存储图片而不是人们常听的rgb?

12、你说opencv里面的HOG+SVM成果很差?他就直接来了句为啥很差?差了就不改了?差了就要换其他方法?、

13、讲讲HOG特征?他在dpm里面怎么打算的,你悔改吗?HOG能检测边缘吗?里面的核函数是啥?那hog检测边缘和canny有啥区别?

13、奈何求一张图片的均值?(考虑了溢出和分块求解,貌似不满足。。。回头看看积分图里面奈何打点溢出的。)

14、奈何写程序将图像放大缩小?(我回复的插值,不太对。。。好比放大两倍可以插值,那放大1.1倍呢,)--放大1.1倍也可以插值

15、奈何遍历一遍求一张图片的方差?(回复的是采纳积分图,并让我推导这样为啥可行。这个标题以前帮同砚打点过。。。)

  (四)编程方面(C++/Python)

  1、 全排列

  2、 矩阵求最长持续递增的路径长度?à

  329. Longest Increasing Path in a Matrix https://leetcode.com/problems/longest-increasing-path-in-a-matrix/discuss/

3、vector和list的区别?

4、c里面有哪些内存申请方法?

5、虚函数和纯虚函数的区别?

6、重载、覆盖、重写的区别?

7、用过C++11吗?用过里面的哪些?

8、有哪些典范转换函数?以及用在哪些场景?

9、用过GCC吗?会linux吗?

10、堆和栈的区别?

11、Python中定义类的私有变量?在变量前面加双下划线“__”,如:__x,则为私有变量

  11、请描摹指针数组和数组指针的区别

  指针数组:array of pointers,即用于存储指针的数组,也就是数组元素都是指针

  数组指针:a pointer to an array,即指向数组的指针

  还要寄望的是他们用法的区别,下面举例分析。

  int* a[4] 指针数组

  表示:数组a中的元素都为int型指针

  元素表示:*a[i] *(a[i])是一样的,因为[]优先级高于*

  int (*a)[4] 数组指针

  表示:指向数组a的指针 元素表示:(*a)[i]

(五)开放性标题

  1、最后问面试官的标题

  (1)我以后的面试要寄望哪些标题,提点建议?或为了更好地胜任这个岗位,我还须要补充哪些技术? 入职后是否有产品培训和技术培训?

  (2)当感觉还可以时,就问公司培训制度,抬举机制,以及自己来了应该做什么,当感觉没戏时,就问,你给我一些关于职业的建议吧,以及怎么抬举自己

  3、 HR面试(自己总结的)

  (1) 渴望薪资

  (2) 你理想的工作是什么样的?

  (3) 关于你以后的工作操持,你有什么设法?

  (4) 职业规划

  (5) 做项目时遇到的坚苦及打点方法?

  (6)做科研辛苦吗?

  (6) 对公司的见解?为什么应聘我们公司?

  (7) 你在同龄人中处于什么档次 和大牛的差距在哪?

  (8) 你跟同龄人比拟有什么优势?

  (9) 你除了我们公司,还投了哪些公司?

  说几个

  (10) BAT之外,你最最想去的是哪家公司,为什么?

  (11) 如果我们给你发offer,你还会担当秋招么?

  (12) 【跨专业】本科+研究生在本专业学了多年,为什么没在本行业求职?

  (13) 【家离企业所在地较远】为什么想来xx处所工作,父母支撑么?

  (14) 【对象】如果对象和你在意向工作地发生分歧,你怎么处置惩罚处罚?

  (15) 优弱点?

  (16) 介绍你一次最失败的一次经历?

  (17) 介绍你一次最成功的一次经历?

  (18) 这份工作你有想过谋面临哪些坚苦吗?

  (19) 如果你发现上司做错了,你将怎么办?

  (19)你觉得大弟子存使你劳绩了什么?

  (20)你对加班的见解?

  (21)当公司给出的报答偏低不够以吸引到杰出人才的时间,你该怎么去招聘?

  这些常识点都是我自己总结的,包含HR面的标题。

  轻 松 一 刻

Tags: 样本 函数 梯度 正则 卷积 目的 模型 方法 标题 权重 会员 线性 算法 特征 都是

服务热线

131-1198-7613

功能和特性

价格和优惠

获取内部资料

微信服务号