【简介:】以外观专利申请为例
一、需要提供的资料:
1.专利代理委托协议
2.专利代理委托书
3.专利申请委托指示明细表
4.提供外观设计六面图、立体图、使用状态图等
二、外观专利申请时
以外观专利申请为例
一、需要提供的资料:
1.专利代理委托协议
2.专利代理委托书
3.专利申请委托指示明细表
4.提供外观设计六面图、立体图、使用状态图等
二、外观专利申请时间及流程:
外观专利申请一般需要3-6个月的时间。外观专利的申请材料提交后,正常3个月时间可完成初审,初审通过,即发《办理登记手续通知书》,通知缴纳证书费和年费等,在缴费后大约2个月左右会收到专利局发出的外观设计专利证书。
下证后的保护周期为15年(2021年6月1日起施行,之前保护周期是10年),申请人需每年缴纳年费进行专利保护。
三、如何办理:
1.各地知识产权局大厅自行申请办理
2.最方便的还是要找专业代理机构进行申请
找专业代理机构进行专利申请办理,可以免去不必要的麻烦,节约大量时间,同时还能提高通过率。
注:外观设计专利证书下来之前,不要将产品上市,有风险。
1、发明专利需准备的资料包括:发明专利请求书、说明书(必要是需要有说明附件)、权利要求书、摘要及其附图各一式两份。2、实用新型专利准备资料包括:实用新型专利请求书、说明书、说明书附件图、权利要求书、摘要及其附图各一式两份。3、外观设计专利准备资料包括:外观专利请求书、图片或照片各一式两份,有要求保护色彩的需提交彩色及黑白图片或照片各一份。如需要对图片或照片做说明的,需提交外观设计简要说明一式两份。
想自学无人机,原理,结构,算法之类的求推荐一些好的书籍或者资源?
书籍有人民邮电出版社的《无人机玩家DIY指南》,清华大学出版社《玩转四轴飞行器》。网站有(5imx我爱模型玩家论坛),(5irc模型爱好者网论坛),(天使遥控模型论坛),(模型中国论坛),里面都有有关无人机的文章可供参考。
算法原理集成学习(ensemble leaning)通过构建并结合多个学习器来完成学习任务,通过将多个学习器结合,常常可以获得比单一学习器显著优越的效果和泛化能力。集成学习中的基学习器可以是同质的,也可以是异质的。根据个体学习器的生成方式,目前的集成学习方法大致可分为三大类:一类是Bagging,个体学习器之间不存在强依赖关系,可以同时并行化训练和生成,最终结果通常通过投票机制产出,随机森林是这一类型的代表;另一类是Boosting,个体学习器之间存在强依赖关系,后一学习器依赖前一学习器的结果,,因此必须以序列化形式串行生成,我们下节会讲到的Adaboost和GBDT是这一类型的代表;其实还有第三类,叫Stacking,即将初级学习器的输出次级学习器的输入特征,深层神经网络甚至可以理解为Stacking集成学习的变种。
随机森林(Random Forest)是以决策树为基学习器构建的Bagging集成学习算法,其实现简单、计算开销小、并且在很多现实任务中表现出抢眼的效果。其主要通过样本扰动和属性扰动使得集成学习的泛化性显著提高。样本扰动是指通过对初始训练集采样构建每一棵决策树;属性扰动是指对基决策树的每个节点,分裂时从该节点的属性集合中随机选择k个属性(k一般去log(d,2),d为属性数量)。
模型训练代码地址:
def train():
print(start training...)
# 处理训练数据
train_feature, train_target = process_file(train_dir, word_to_id, cat_to_id)
# 模型训练
model.fit(train_feature, train_target)
def test():
print(start testing...)
# 处理测试数据
test_feature, test_target = process_file(test_dir, word_to_id, cat_to_id)
# test_predict = model.predict(test_feature) # 返回预测类别
test_predict_proba = model.predict_proba(test_feature) # 返回属于各个类别的概率
test_predict = np.argmax(test_predict_proba, 1) # 返回概率最大的类别标签
# accuracy
true_false = (test_predict == test_target)
accuracy = np.count_nonzero(true_false) / float(len(test_target))
print()
print(accuracy is %f % accuracy)
# precision recall f1-score
print()
print(metrics.classification_report(test_target, test_predict, target_names=categories))
# 混淆矩阵
print(Confusion Matrix...)
print(metrics.confusion_matrix(test_target, test_predict))
if not os.path.exists(vocab_dir):
# 构建词典表
build_vocab(train_dir, vocab_dir)
categories, cat_to_id = read_category()
words, word_to_id = read_vocab(vocab_dir)
# kNN
# model = neighbors.KNeighborsClassifier()
# decision tree
# model = tree.DecisionTreeClassifier()
# random forest
model = ensemble.RandomForestClassifier(n_estimators=10) # n_estimators为基决策树的数量,一般越大效果越好直至趋于收敛
train()
test()运行结果:
ead_category...
read_vocab...
start training...
start testing...
accuracy is 0.875000
precision recall f1-score support
娱乐 0.83 0.91 0.87 89
房产 0.78 0.83 0.80 104
教育 0.81 0.81 0.81 104
家居 0.75 0.71 0.73 89
游戏 0.93 0.95 0.94 104
时政 0.78 0.79 0.78 94
时尚 0.94 0.89 0.92 91
体育 0.98 0.97 0.97 116
财经 0.95 0.91 0.93 115
科技 0.99 0.96 0.97 94
avg / total 0.88 0.88 0.88 1000
了解更多干货文章可以关注小程序八斗问答