搜索内容

包含标签:数码宝贝dw6.0攻略 的文章
  • NS大航海时代4攻略(大航海时代4nds攻略)
    游戏攻略

    NS大航海时代4攻略(大航海时代4nds攻略)

    大航海时代4佐伯怎么找到全海员大航海时代4加强版杏太郎·佐伯全海员招收攻略:1、林·森(专属)-初始伙伴。2、塞西莉雅·德·梅卡德(专属)-东南亚势力值1000以上,去雅加达同业工,剧情过后,在雅加达出港后加入。3、杰拿斯·帕沙-第一次在马纳多或德尔纳特入港后加入;或者里斯本出港后杰拿斯加入。3、曼努埃尔·阿尔米达-第一次在马尼拉入港后加入;或者在圣乔治酒馆加入。4、弗利奥·埃涅科-塞西莉亚在主舰队,在麻六甲酒馆加入。5、乙凤·宋-在京城广场加入。6、尤里安·罗佩斯-杭州酒馆-京城酒馆-京城遗迹,剧情过后,杭州酒馆加入。7、行久·玄丞·白木-大阪酒馆得知行久的消息,在北海道村加入。拓展资料:注意事项1、有线索的尽量读出线索,签合约,收集所有情报才能去发现;2、有赝品的必须先收集赝品情报,买到赝品后才能去发现;3、探险期间一定顺路做生意,而且必须尽量赚钱。大航海时代4的秘籍诀窍如下:1、买便宜船。早期钱较少时,为了能够买到便宜点的船,可以去不景气的港口去买,那里的船会非常便宜!2、伙伴的快速升级法。故意逆风航行;或者把航泊在港口的附近,然后不断调查,直到手下水手所剩无几,再进港口补充,如此循环可以快速升级。3、快速发展港口的好方法。投资港口的效果会在每月初体现出来,而每次投资的额度由当前港口的发展度决定,所以到后来开销很大,为了快速而节约的发展港口,你可以趁港口的发展度还比较低,投资花费很少的时候,在一个月内不断地投资,到下个月时,港口的发展度会猛升至最高水平!4、快速招募水手法。先用酒场中的请喝酒指令,花几百金币请大家喝酒,然后招募水手,这时一次招募到的水手数是喝酒前的3倍!省时省钱。玩大航海时代4的注意事项:1,取得港口的占有度十分重要,如果其他势力已经瓜分了港口的占有度,那么你连契约也不能签。对付对方占有度100的港口,除了在酒场散布谣言外,有时完成该港同业者行会交代的任务也会得到1%的占有度,但可遇不可求。所以战争是最干脆的解决方法,向对方宣战并在海战中获胜,就可使对方的占有度下降。或直接炮击港口,该港口降服以后你就能够与该港签订契约,投资,提高占有度了。而如果你和其他势力瓜分了该港,要想提高占有度的话,可以先在该港制造流行,然后抛售流行商品,这样就可以得到推荐状,提高你的占有度了。与敌方势力交战中,要想彻底击败对手,打下敌方的港口,投资占有度至100,是迅速消灭对手的必须手段。切忌不要不宣战就炮击敌方港口,这样即使港口屈服,进港后,人们对你的态度也够你受的!!契约是别想签了。2,大港的酒吧有酒吧女(漂亮得让ORDIN流口水),和她们多喝几杯,她们就会告诉你一些宝物的情报。同时还会告诉你她梦想得到的东西,如“××东西好漂亮啊!”这类东西就是“女性的渴望”。周游世界时发现女性的渴望的东西后,带回来回到相应的酒吧女那里,她就会开口向你要。给她后,她就会告诉你宝物的具体经纬度了。在此之前,她只告诉你一个大致方向,累死你…3,如同二代一样,买卖商品会引起这类商品的价格变动。所以最好是在两地间用同一类的货品(比如同为装饰品的象牙与珊瑚)相互交易。不然的话就会出现这种情况,一直被买的那类商品不断涨价,而一直被卖的商品不断跌价,很快,差价利润就会丧失殆尽。这一代加入了流行商品的设计,如果你在交易所中探查别的港口商品价格时发现有特殊标记或是进港时你的航海士告诉你广场上聚集了好多人,就表示现在该港有某样商品正在流行,流行商品比正常时价格高很多!旗舰配备传教师后就可以在港口让船队所载货物变成流行商品,你知道该怎么做了吧。大航海时代4威力加强版攻略 全主角流程攻略1、首先,去新大陆,一上岸遇玛尔德纳德军,同意和他同盟对付埃斯康特。 2、去委拉克路斯同业公会有任务,打败在新大陆的海盗,完成任务回委拉克路斯同业公会,见遗迹。 3、打败埃斯康特后在委拉克路斯总督府得知霸者之证线索在新大陆西岸的村庄里。 4、途经小村庄“里约热内卢”,“蒙特维多”,“法耳巴拉索”,在“客劳”得到太阳圆纹的刀鞘。去哈瓦那,同业公会让我对付海上的幽灵船。 5、在海上遇后击沉它(靠近他就会消失),回哈瓦那出现遗迹,得到典礼用的小刀。出港得到霸者之证地图。 标签: NS大航海时代4攻略
    猪猪游戏 2022-11-30
  • 联通卡怎么设置彩铃(联通卡怎么设置彩铃铃声)
    游戏攻略

    联通卡怎么设置彩铃(联通卡怎么设置彩铃铃声)

    联通卡怎么设置自己喜欢的彩铃?1、 联通的官方炫铃网站选择你所在的地区,进入后 注册就可以开通炫铃功能下面以山东为网站申请登录联通彩铃门户网站 进入炫铃主页  点击 注册 阅读炫铃业务须知并点击确认输入您的手机号  申请成功后系统将发送申请成功的短信通知。2、 电话申请本机拨打联通丽音之炫铃热96131000进入炫铃业务自动语音受理流程  接听语音引导流程  选择申请炫铃   申请成功后系统将发送申请成功的短信通知 1001开通  本机拨打1001选择人工服务,由客户代表为您开通炫铃(须提供机主身份证号)短信开通:编辑0发送至1900即可开通。3、  手机左上角的炫铃管理区填写手机号码和登录密码,即可登录成功进入我的炫铃对自己铃音库中的炫铃或音乐盒进行设置并可以完成默认炫铃设置以及、时间段炫铃、分组炫铃、纪念日炫铃  高级设置4、 中国联通彩铃网站中提到的默认彩铃呢很简单除了你进行了特殊设置的时段主叫对象之外的来电都会播放默认彩铃你可以把一首自己喜欢的歌来作为默认彩铃一般开通了炫铃之后系统会送一首默认彩铃给你中国联通彩铃网站中的分时段彩铃、分组彩铃、纪念日彩铃都是针对不同时间段和主叫对象进行的其他设置。联通卡如何设置彩铃?联通是没有彩铃业务的。如果您是指订购炫铃歌曲的话,您可以通过以下方式订购炫铃歌曲: 1.短信:发送“new”到10655158获取《炫铃新歌榜》;发送“bd”到10655158获取《炫铃人气榜》;发送任意“歌曲名称”或“歌手名称”到10655158获得铃音内容;发送“BZ或H”到10655158查询帮助信息。按查询后结果,回复序号即可定制,并设置为默认炫铃。发以上短信通信费0.1元/条; 2.您可拨打10155,按语音提示进行炫铃的设置,目前仅广东、浙江、安徽的用户订购,其他省份会陆续开通; 3.安装沃音乐客户端,在手机屏幕点击沃音乐图标,按界面提示订购炫铃歌曲。 温馨提示:成功订购并扣费后,即可使用该炫铃歌曲。联通怎么设置来电彩铃 中国联通推出了视频彩铃业务,设置后,亲朋好友来电时,可观看您设置的精彩短视频。那联通怎么设置来电彩铃? 联通怎么设置来电彩铃? 1、打开中国联通APP,在“服务”页面点击【5G专区】。 2、点击【视频彩铃】,选择喜欢的彩铃样式订阅即可。 本文以华为mate40pro为例适用于HarmonyOS 2.0系统中国联通V8.0801版本中国联通视频彩铃怎么设置中国联通视频彩铃设置方式:1、沃音乐客户端:登录客户端→点击5G彩铃栏目→选择视频彩铃→点击“设视频彩铃”;2、联通手机营业厅APP或H5门户页面设置:a) 登录联通手机营业厅APP,点击下方“服务-创新-5G彩铃”,即可进入5G彩铃专区;b) 选择喜欢的视频彩铃,进入视频播放界面,点击“设置5G彩铃”按钮,则会弹出订购5G视频彩铃-乐酷会员高级版8元/月的提示窗口,点击立即开通即可进入订购页面;c) 进入统一认证页面,输入图片校验码及短信验证码后,点击确认,确认订单信息后再次点击确认,收到短信提示业务成功订购,即可完成订购流程d) 返回至5G彩铃专区页面,选择短视频彩铃,点击“设置5G彩铃”按钮完成设置。3、沃视频APP:点击下方“5G彩铃”,进入5G彩铃专区,选择需要设置的视频彩铃,点击“设置5G视频彩铃”按钮,一键即可设置成5G彩铃;4、沃音乐APP:a) 通过沃音乐APP的“5G彩铃”页面中找到“精选内容专区”;b) 选择需要设置的视频彩铃,在视频播放页,点击右下方的 ,也可以设置为视频彩铃。联通卡怎么设置彩铃联通卡设置彩铃的方法:1、百度搜索输入“联通彩铃”,点击进入联通彩铃官网。2、进入官网主页面后,点击上面的登录选项,登录自己的联通账号。3、把鼠标放在你要设置成彩铃的歌曲上边,然后会出来几个选项,点击铃声。4、最后点击你想要的服务,点击立即订购就可以了。联通卡怎么设置彩铃?联通卡设置彩铃的方法:1百度搜索输入联通彩铃点击进入联通彩铃官网。2进入官网主页面后,点击上面的登录选项,登录自己的联通账号。3把鼠标放在你要设置成彩铃的歌曲边上,然后出来几个选项,点击铃声。4最后点击你想要的服务,点击立即订购就可以了。 标签: 联通卡怎么设置彩铃
    猪猪游戏 2022-11-30
  • 怪物猎人物语2必抓怪物(怪物猎人物语2怎么抓)
    游戏攻略

    怪物猎人物语2必抓怪物(怪物猎人物语2怎么抓)

    《怪物猎人物语2》必练怪物是什么?在通关剧情阶段是略微偏向中期了,从通关剧情这个阶段,就应该开始往值得培养的龙来进行考虑,前期刷龙反倒有些浪费时间,不如尽快进入共斗,或者去刷那些起码值得培养到中后期都能使用的龙,优先考虑队伍里3种猜拳龙各有一只。力量中期可以选择角龙,黑角龙,黑轰龙,白一角龙;在到火山之后摸出咩咩子,在共斗中摸出炎王龙,荒勾爪轰龙,金雷娘。速度中期可以选择轰龙,雷娘;在共斗中摸出白疾风,鏖魔角龙,紫毒姬,麒麟。技巧中期可以选择电龙,狱狼,千刀,在共斗中摸出钢龙和冰咒。在这里的选择是:力量咩咩子和炎王龙这两只特别推荐。首先他们有着物语2中最高的面板攻击力639点,再来说咩咩子,无属性,优秀的基因技能自带20会心80的基础威力并且只有20的羁绊消耗,配上会心特大+2加上咩咩子自身的会心可以说是非常的强力。并且基本默认自带双猜拳,无论是转型三猜拳或是双猜拳出输出基因都十分不错。咩咩子在宾果选择上建议优先考虑无属性宾果而后再考虑力量速度。怪物猎人物语2前期应该抓什么宠物 怪物猎人物语2前期应该抓哪些宠物1、《—角龙》是比较早期可以遇到的怪物之一,其驾驭技能为遁地,这个技能在中后期非常有用,有很多箱子用遁地才能开。 2、《轰龙》能够使用藤蔓爬行,这是非常重要的技能,前期非常难打,阿尔玛比较脆,被摸一下就死了,刷刷等级再去打,有了等级和好因子的加持想要过关还是可以的。打轰龙要注意的是,轰龙怒后飞扑2锻,第二下必定暴击,放出来就秒一条命,推石头防御不够也是秒,建议带炎龙慢慢磨,另外还可以用祈祷壶的忍耐护符减少15%的伤害。轰龙和一角龙在同一张图上,在一角龙上面一点。 3、《迅龙》是很早期就能获得的一条龙,且为必定获得,主线会碰到它,技能是遁地。 4、《雷狼龙》用来通关主线,驾驭动作是跳跃,相当好用,位置在纳维雪巅,从计程猫站出来往上走就能看到。《雷狼龙》有三种形态,分别是一般(速度攻击)、蓄电(技巧攻击)、超带电(力量攻击),去打雷狼龙─定要带好热暖雾不然会有冷倦怠的问题,影响攻略。推荐先扔闪光再丢染色球,不然不会回巢。《怪物猎人物语2》前期强力宠物是什么?《怪物猎人物语2》前期强力宠物是如下:一、鸟龙种:白速龙王、黄速龙王、蓝速龙王、红速龙王、跳狗龙、大怪鸟、毒怪鸟、黑狼鸟、夜鸟、只眼黑狼鸟、胧隐夜鸟。二、牙兽种:青熊、白兔兽、赤甲兽、雪狮子、金狮子、激昂金狮子、野猪王、奇猿狐、桃毛兽王大雪主白兔兽、红兜青熊兽、银岭巨兽。三、牙龙种:雷狼龙、金雷公雷狼龙。四、海龙种:水兽、海龙、潜口龙、炎戈龙、泡狐龙、眼泡狐龙。五、鱼龙种:水龙、砂龙、熔岩龙。《怪物猎人物语》2必练怪物是谁?力量咩咩子和炎王龙。首先他们有着物语2中最高的面板攻击力639点,再来说咩咩子,无属性,优秀的基因技能自带20会心80的基础威力并且只有20的羁绊消耗,配上会心特大+2加上咩咩子自身的会心可以说是非常的强力。并且基本默认自带双猜拳,无论是转型三猜拳或是双猜拳出输出基因都十分不错。咩咩子在宾果选择上建议优先考虑无属性宾果而后再考虑力量速度。怪物猎人物语2技巧:一、可以逃离战斗除了部分战斗,大多数与野生怪物发生的战斗都是100%可以逃离的。在想节约时间和不想战斗的时候,建议选择从战斗中逃走。二、积极使用护符积极地为祈祷壶供奉护符吧。通过祈祷壶使用护符,可以发动各种各样的效果,越使用祈祷壶的等级越高,护符的效果也会越强。在本作中推进剧情的话,可以获得大量的护符。建议为了提高祈祷壶的等级,在游戏开始的时候积极使用护符。三、积极使用成长药在游戏中要积极使用成长药。这是可以强化主人公和随行兽的道具,效果可以永久持续。每个单体最多可以使用10个成长药。如果使用各个成长药十次,HP会提升30,攻击和防御力会提升50。从整个剧情来说,武器和防具的升级上升量有限,用成长药强化会轻松很多。《怪物猎人物语2》必练怪物有哪些?力量中期可以选择角龙,黑角龙,黑轰龙,白一角龙;在到火山之后摸出咩咩子,在共斗中摸出炎王龙,荒钩爪轰龙,金雷娘。他们有着物语2中最高的面板攻击力639点,再来说咩咩子,无属性,优秀的基因技能自带20会心80的基础威力并且只有20的羁绊消耗,配上会心特大+2加上咩咩子自身的会心可以说是非常的强力。怪物猎人物语2一共12章。Capcom于2015年4月公布了《怪物猎人》系列最新作《怪物猎人,物语》,而这款作品是一部RPG!对应平台为3DS与New 3DS掌机。据悉,本作由辻本良三担任制作人,采用《怪物猎人》的世界观。主要讲述骑着怪物进行战斗的“骑手”四处冒险的故事。本作预定于2016年发售,暂无PSV版的消息。怪物猎人物语 2,毁灭之翼《怪物猎人物语2,毁灭之翼》,回合制RPG游戏,由卡普空开发,体验版于2021年7月9日上架Steam,正式版同时发售。 标签: 怪物猎人物语2必抓怪物
    猪猪游戏 2022-11-30
  • 在我的世界里天堂(我的世界里天堂里有什么 百度网盘)
    游戏攻略

    在我的世界里天堂(我的世界里天堂里有什么 百度网盘)

    我的世界怎么去天堂玩家可以制作一个天堂传送门,然后通过传送门进入到天堂中。要制作天堂之门,先找一块空地,选择要建天堂门的地方。然后用荧石搭建起一个正方形门框。然后在刚刚搭建起的门框中加入水即可。搭建完之后,玩家就可以通过天堂传送门进入天堂。《我的世界》是由Mojang Studios开发,在中国由网易代理的沙盒式建造游戏,游戏于2017年8月8日在中国大陆独家运营。游戏创始人为马库斯·佩尔松,也称为notch,其灵感源于《无尽矿工》、《矮人要塞》和《地下城守护者》。玩家可以在游戏中的三维空间里创造和破坏各种各样的方块,甚至在多人服务器与单人世界中体验不同的游戏模式,在高度的自由中,玩家们也自己创作出了大大小小的玩法,打造精美的建筑物,创造物和艺术品。且游戏平台已囊括了移动设备和游戏主机。我的世界天堂有什么有女武神殿,地道(里面有三个破坏力极大的箱子,只有你用稿去敲它,它才会攻击,还有一个是太阳神(别人是用视觉广阔来找的)还有一些以太猪,以太牛,以太兔,恐鸟,以太鲸和一进天堂就会扔雪球攻击你的怪物。天堂有很多宝箱很不错,不过友情提醒:不要什么箱子都开,有的箱子是陷阱箱,是怪物,不要碰它,要不然它会攻击你。生成的地形:天堂的地形是由许多个漂浮在空中的岛组成。这些岛比月球和玩具中的都要大一些,因此玩家掉到下面的虚空去的可能性也变小了。在这里随处可见微晶矿石(Crystallite Ore)。我的世界天堂怎么去 去天堂的步骤详解《我的世界》是一款很好玩的游戏,在游戏中,不仅可以去地狱,也可以去天堂,天堂怎么去呢? 1、要进入天堂有的不需要安装,有的则需安装MOD。 2、制作天堂门需要有铁以及莹石,中间放水就可以制作。 3、将水放上之后就可以传送去天堂,去天堂只需要站在水的位置就可以了。我的世界天堂门怎么做我的世界里面,天堂是个十分好玩的地方,去天堂。电脑:华为MateBook系统:Windows10软件:我的世界游戏1.01、首先我们进入游戏,在游戏里面随便找块空地。在空地上面就可以开始建造天堂之门啦。2、建造天堂之门前。我们需要用到萤石,萤石是建造天堂之门的材料。我们首先要造出门的四个边框。只要用萤石来建造就可以啦。3、门框就是这样,建成四方形就可以啦。4、建造好门框之后,我们就可以建造门框里面的薄膜了。薄膜使用什么材料呢?使用的是MOD里面的黄金打火石,注意是黄金打火石,不是普通的打火石哦。5、建好以后,我们就可以从门里面进入天堂啦。直接点击薄膜就可以进去咯。小伙伴们想进入天堂的就试试吧。 标签: 在我的世界里天堂
    猪猪游戏 2022-11-30
  • 原神古云有螭任务瀑布怎么进(原神古云有螭任务瀑布怎么进去)
    游戏攻略

    原神古云有螭任务瀑布怎么进(原神古云有螭任务瀑布怎么进去)

    原神进入密藏瀑布的方法1、进入密藏首先要前往瀑布,然后找到并进入瀑布右侧的小洞口。2、然后玩家按F键开启大门并将三块收集的碎片放入相应位置。3、之后进行交付之后,然后按F键之后即可进入密藏。古云有螭进入密藏方法:首先从瀑布右边的路进去,走到一个铁门那里交互,用收集到的三个碎片,就能开启轻策之藏的大门。然后将几个遗迹守卫击败之后,派蒙会提示我们四处找找,宝藏就位于前方的洞口中,小地图上还有黄色圈圈。最后走到洞穴深处,会发现一个水池,台上中间是一个华丽的宝箱。后面也有一堆宝箱,各种品质的都有,收获满满。打完机器人后,不要走出去,直接往开启的洞穴深处走,就能搜索到最后的宝藏了。如果你出来了,这些宝箱也不会消失,回来依旧是可以找到的。古云有螭怎么二次进入1、首先,打开地图,然后来到图中指示地点,接着直接飞到瀑布那边。2、其次,就可以在右侧看到一个洞口,直接进入。3、然后,进入之后,看到有一个木门,点击F键。4、最后,按照顺序交付三个铁块按照顺序交付三个铁块即可二次进入。古云有螭是《原神》中的由一个世界任务,完成后可以获得原石奖励。《原神》是由上海米哈游网络科技股份有限公司制作发行的一款开放世界冒险游戏。《原神》古云有螭密藏怎么进入?原神古云访问方法如下:1.开启秘密任务后,按照指令前往瀑布;2.到达后,找到瀑布右侧的洞,进入;3.进入后,打开大门,放入相应的碎片,进入密藏。原神《原神》是由上海米哈游制作发行的一款开放世界冒险游戏,原初测试于2019年6月21日开启,再临测试于2020年3月19日开启,启程测试于2020年6月11日开启,PC版技术性开放测试于9月15日开启,公测于2020年9月28日开启。在数据方面,同在官方服务器的情况下,iOS、PC、Android平台之间的账号数据互通,玩家可以在同一账号下切换设备。 标签: 原神古云有螭任务瀑布怎么进
    猪猪游戏 2022-11-30
  • 阿玛拉王国惩罚阵营任务详解(阿玛拉王国惩罚阵营任务详解攻略)
    游戏攻略

    阿玛拉王国惩罚阵营任务详解(阿玛拉王国惩罚阵营任务详解攻略)

    《阿玛拉王国:惩罚》中 旅行者阵营任务在哪开始呢 麻烦告诉下 谢谢了在star camp接第一个任务,做完了任务会再让你去moon camp,最后是sun camp。阿玛拉王国 惩罚有几个派系任务a你说的派系任务应该就是阵营任务。每个阵营的任务都是连锁的,故按阵营的数量分类誓战者(战士职业的阵营),日月星营(盗贼联盟阵营),歌谣家族(灵法阵营),哀伤家族(法师阵营)。英勇家族(角斗士阵营)另外在两个DLC中也各自的阵营,纳罗斯之牙的阵营是艾辛后裔,死亡凯尔里的阵营则是属于自己(自己是要塞之主,要塞的任务就是阵营任务)。阿玛拉王国 惩罚 阵营任务 开启地点分别在哪里?魔法学院任务:做完给两个戒指,增加各种元素伤害你现在做的任务是盗贼工会的任务,日营就在地图中间偏上的那个城堡RATHIR的左下方左上角那个任务是诗人与国王的任务地图上一个旗帜里面一个盾牌标志的地方是战士营地,在左下角第一个标志的那个城堡里接战士阵营任务坐船渡海要等你主线任务做到后面才行,渡海后还有一个精灵的任务这游戏我是刚发售的时候玩的,玩了一个星期主线和阵营做完就没玩了,距离现在时间有点久了,可能有些地方说得不对还望大家补充和纠正阿玛拉王国 惩罚 阵营任务在哪接 麻烦在地图里标一下,详细的,谢谢有各职业的阵营任务呢,法师的在歌谣接,刺客的在星营接,战士的在坚盾城堡. 标签: 阿玛拉王国惩罚阵营任务详解
    猪猪游戏 2022-11-30
  • backbone是怎么训练的(backbone入门指南)
    游戏攻略

    backbone是怎么训练的(backbone入门指南)

    超详细解读Faster R-CNN-FPN2021年了,竟然还有人写关于Faster R-CNN的文章?我的原因主要有两点: 我们先从全局上了解Faster R-CNN-FPN,然后再关注其中涉及的细节。下面是Faster R-CNN-FPN的网络框架图(或称为tensor流动图)。 众所周知,Faster R-CNN-FPN(主要是Faster R-CNN)是个两阶段的对象检测方法,主要由两部分网络组成,RPN和Fast R-CNN。 RPN的作用是以bouding box(后简称为box)的方式预测出图片中对象可能的位置,并过滤掉图片中绝大部分的背景区域,目标是达到尽量召回图像中感兴趣的对象,预测box尽量能够与实际对象的box贴合,并且保证一定的预测精度(Precision)。另外,RPN并不需要指出预测的box中对象具体的类别,RPN预测的box称为RoI(Region of Interest),由于是以box的方式输出,所以后面我们统一将其称为proposal box。 Fast R-CNN则是在FPN预测的proposal box基础上进一步预测box中对象具体的类别,并对proposal box进行微调,使得最终预测的box尽量贴合目标对象。大致的做法是根据RPN预测的proposal box,从原图backbone的feature map上通过RoIPooling或RoIAlign(Faster R-CNN-FPN使用RoIAlign)提取每个proposal box对应区域的feature map,在这些区域feature map上进一步预测box的类别和相对proposal box的偏移量(微调)。另外,RPN和Fast R-CNN共用同一个backbone网络提取图像的feature map,大大减少了推理耗时。 从上面的介绍可以看出,RPN和Fast R-CNN的配合作用其实可以理解为一种注意力机制,先大致确定目标在视野中的位置,然后再锁定目标仔细观察,确定目标的类别和更加精确的位置,简单来说就是look twice,相比单阶段的look once,当然是比较耗时的,但也换来了更好的效果(虽然很多单阶段方法号称已经获得相当或好于两阶段的效果)。 下面以Faster R-CNN-FPN发展顺序的汇总介绍每个改进的核心思想。 在R-CNN中,CNN只被用来作为特征抽取,后接SVM和线性回归模型分别用于分类和box修正回归。在此基础上,Fast R-CNN直接对原输入图进行特征抽取,然后在整张图片的特征图上分别对每个RoI使用RoIPooling提取(后面会介绍RoIPooling的原理)特定长度的特征向量(论文中空降尺寸为7*7),去掉SVM和线性回归模型,在特征向量上直接使用若干FC层进行回归,然后分别使用两个FC分支预测RoI相关的类别和box,从而显著提升速度和预测效果。 整体框架图如下: 在Fast RCNN的基础上进一步优化,用CNN网络代替Fast R-CNN中的region proposal模块(使用传统Selective Search方法),从而实现了全神经网络的检测方法,在召回和速度上都超过了传统的Selective Search。作者将提供proposal region的网络称为RPN(Region Proposal Network),与检测网络Fast RCNN共享同一backbone,大大缩减了推理速度。 RPN在backbone产生的feature map(图中的conv feature map)之上执行 的滑窗操作,每个滑窗范围内的feature map会被映射为多个proposal box(图中的reg layer分支)以及每个box对应是否存在对象的类别信息(图中的cls layer分支)。由于CNN天然就是滑窗操作,所以RPN使用CNN作为窗口内特征的提取器(对应图中的intermediate layer,后面简称为“新增CNN层”),窗口大小 ,将feature map映射为较低维的feature map以节省计算量(论文中为256)。虽然只使用了 的卷积,但是在原图上的有效的感受野还是很大的,感受野大小不等于网络的降采样率,对于VGG网络,降采样率为16,但是感受野为228像素。类似于Fast-RCNN,为了分别得到box和box对应的类别(此处类别只是表示有没有目标,不识别具体类别),CNN操作之后会分为两个子网络,它们的输入都是新增CNN层输出的feature map,一个子网络负责box回归,一个负责类别回归。由于新增CNN层产生的feature map的每个空间位置的特征(包括通道方向,shape为 )都被用来预测映射前窗口对应位置是否存在对象(类别)和对象的box,那么使用 的CNN进行计算正合适(等效于FC层),这便是RPN的做法。综上所述,所有滑窗位置共享一个新增CNN层和后续的分类和box回归分支网络。下图是RPN在一个窗口位置上执行计算的原理示意。 由于滑窗操作是通过正方形的CNN卷积实现的,为了训练网络适应不同长宽比和尺寸的对象,RPN引入了anchor box的概念。每个滑窗位置会预置k个anchor box,每个anchor box的位置便是滑窗的中心点,k个anchor box的长宽比和尺寸不同,作者使用了9种,分别是长宽比为 、 和 ,尺寸为 , 和 的9种不同组合。分类分支和box回归分支会将新增CNN层输出的feature map的每个空间位置的tensor(shape为 )映射为k个box和与之对应的类别,假设每个位置的anchor box数量为k(如前所述, ),则分类分支输出的特征向量为2k(两个类别),box回归分支输出为4k(4为box信息,box中心点x坐标、box中心点y坐标、box宽w和box高h)。box分支预测的位置(x,y,w,h)都是相对anchor box的偏移量。从功能上来看,anchor box的作用有点类似于提供给Fast RCNN的propsal box的作用,也表示目标可能出现的位置box,但是anchor box是均匀采样的,而proposal box是通过特征抽取(或包含训练)回归得到的。由此可以看出,anchor box与预测的box是一一对应的。从后文将会了解到,通过anchor box与gt box的IoU的关系,可以确定每个预测box的正负样本类别。通过监督的方式让特定的box负责特定位置、特定尺寸和特定长宽比的对象,模型就学会了拟合不同尺寸和大小的对象。另外,由于预测的box是相对anchor box的偏移量,而anchor box是均匀分布在feature map上的,只有距离和尺寸与gt box接近(IoU较大)的anchor box对应的预测box才会与gt box计算损失,这大大简化了训练,不然会有大量的预测box与gt box计算损失,尤其是在训练初始阶段,当一切都是瞎猜的时候。 在Faster RCNN基础上,将backbone替换为ResNet50或ResNet101,涉及部分细节的改动,我们放在本文的细节部分进行描述。 在Faster RCNN-ResNet基础上,引入FPN(特征金字塔网络)模块,利用CNN网络天然的特征金字塔特点,模拟图像金字塔功能,使得RPN和Fast RCNN可以在多个尺度级别(scale level)的feature map上分别预测不同尺寸的对象,大大提高了Faster RCNN的检测能力。相比图像金字塔大大节省了推理时间。原理如下图所示: 从上图中可以看出,FPN并不是简单地使用backbone的多个CNN层输出的feature map进行box回归和分类,而是将不同层的feature map进行了top-down和lateral connection形式的融合后使用。这样便将CNN网络前向传播(bottom-up)产生的深层语义低分辨率特征与浅层的浅语义高分辨率的特征进行融合,从而弥补低层特征语义抽象不足的问题,类似增加上下文信息。其中,top-down过程只是简单地使用最近邻插值将低分辨率的feature map上采样到即将与之融合的下层feature map相同的尺寸(尺寸上采样到2倍),lateral connection则是先将低层的feature map使用 的卷积缩放为即将与之融合的上层feature map相同的通道数(减少计算量),然后执行像素级相加。融合后的feature map不仅会用于预测,还会继续沿着top-down方向向下传播用于下层的特征融合,直到最后一层。 mask R-CNN提出的RoI Align缓解了RoIPooling的缺陷,能够显著提升小目标物体的检测能力。网上介绍RoIPooling和RoIAlign的文章很多,此处不再赘述,推荐阅读个人觉得比较好的两篇博客: RoIPooling 和 RoIAlign 。 此处稍微啰嗦下个人对RoIPooling的思考: 为什么RoIPooling不使用自适应的池化操作,即根据输入的feature map的尺寸和希望输出的feature map尺寸,自动调整池化窗口的大小和步长以计算想要尺寸的feature map,类似于自适应池化操作,而不是将输入的feature map划分成均匀的小区域(bins,论文中划分为 个bins),然后每个小区域中分别计算MaxPooling。不管计算上是否高效,至少这种做法在输入的feature map尺寸(比如 )小于期望的输出feature map尺寸(比如 )时会失效,因为在3*3的feature map上如果不使用padding的话是无法得到 的特征的,而使用padding又是很低效的操作,因为要扩展局部feature map的尺寸,而使用划分bins的方法,即使输出的feature map尺寸远小于要输出的feature map尺寸,也仅仅是在同一位置采样多次而已。 本人之前介绍YOLOv3的 文章 也介绍过anchor box的作用,再加上本文1.1.2节中的介绍应该比较全面了,不再赘述。 此处的绝大部分细节来自论文,论文中未提及的部分,主要参考了mmdetection中的 实现 。 整个模型的网络结构可以划分为四个部分,分别为backbone、FPN、RPN head和Fast RCNN head。 1.backbone: 原图短边被resize到800像素,这里值得注意的是,如此resize后一个batch内的每张图片的大小很有可能并不一致,所以还无法合并为一个输入矩阵,普遍的做法是将batch内的每张图片的左上角对齐,然后计算resize后batch内所有图片的最大宽和高,最后按照最大宽或高分别对每张图片的宽或高进行0值padding;输出为4个不同尺寸的feature map(C2、C3、C4、C5)。 2.FPN: ResNet backbone产生的4个不同尺寸的feature map(C2、C3、C4、C5)作为输入,输出5个不同尺寸的feature map(P2、P3、P4、P5、P6),P6是对P5进行2倍降采样得到,每个feature map的通道数为固定的256;使用P6的原因是为了预测更大尺寸的对象。 3.RPN:输入为FPN产生的feature map(P2、P3、P4、P5、P6);由于RPN是在5个输入feature map上进行独立的预测,则每个feature map都会输出 proposal box,因此不可能将所有的proposal box都提供给Fast R-CNN,这里的做法是对每个feature map上产生的proposal box按类别概率进行排序(每个feature map上的proposal box独立进行),然后选择前k个proposal box, 5个feature map一共会 产生 个proposal box,训练时 ,推理时 。最后,将所有的 个proposal box合并后统一进行NMS(IoU threshold=0.7)去掉冗余的box,最后选择前m个输出给Fast R-CNN,训练和测试时m都取1000。 训练时将gt box通过下面的公式转换为相对anchor box的偏移值,与网络的预测计算loss,至于将每个gt与具体的哪个anchor box计算偏移,则需要根据2.3.1节中的正负样本方法来确定。测试时将预测的box通过该公式中的逆运算计算出当前box相对原图的位置和大小, , , , 指相对全图的box中心点坐标以及宽和高, , , , 指每个anchor相对全图的box中心点坐标以及宽和高。由此可以看出,box回归分支直接预测的便是相对anchor的偏移值,即公式中的 、 、 和 。 以上提到的2000和1000是作为Fast R-CNN的输入proposal box,在训练时参与RPN loss计算的anchor boxs数量为256个,正负样本数量为 ,正样本不足128的用负样本补足。这里的256是从所有feature map中的anchor box中选择的,并非每个feature map都独立取得256个正负样本。这也是合理的,因为每个gt box由于尺寸的原因,几乎不可能与所有feature map上的anchor box的IoU都大于一定的阈值(原因参考2.3.1节)。注意选择前并未进行NMS处理,而是直接根据2.3.1节中确定正负样本的方式确定每个预测box正负类别,然后分别在正样本中随机选择128个正样本,在负样本中随机选择128个负样本。 4.Fast R-CNN:输入为FPN产生的前4个feature map和RPN输出的proposal box,4个feature map为P2、P3、P4、P5,与backbone对应,不使用P6。那么,如何确定在哪个feature map上执行每个proposal box对应的RoIAlign操作并得到 大大小的feature map呢?论文中的做法是通过下面的公式将特定尺寸的proposal box与FPN产生的4个feature map中尺寸最适合的对应起来,即让感受野更接近对象尺寸的feature map预测该对象 ,其中224为backbone在ImageNet上预训练的尺寸,w和h为proposal box的长和宽,k表示适合尺寸为w和h的propsal box的feature map的位置,即4个feature map为P2、P3、P4、P5的下标,k_0为proposal box大致为224*224时对应feature map位置值( ),表示proposal box大致为 时在P4上执行RoIAlign,小于 时,在P2或P3上执行,大于则在P5上。 网络都会针对每个RoI会输出一个类别概率分布(包括背景类别)和一个相对RoI box的长度为4的box偏移向量。概率分支由softmax激活函数得到。与RPN的类似,训练时,如2.4.2节loss计算中所述,会将gt box通过下面的公式转换为相对proposal box(前提是该RoI是正样本)的偏移量,然后使用loss计算公式直接与预测的相对偏移量进行loss计算;测试时,会通过下列公式的逆运算将偏移值换算回相对原图的位置box,然后使用NMS去掉冗余的box,最终输出。 训练时,通过2.3.2中的方式确定每个proposal box属于正样本或负样本后,随机选择512个样本,其中正负比例为1:3进行loss计算,正样本不足的由负样本补足。 在RPN中,由于每个feature map的每个滑窗位置上的张量( 维张量,C为feature map的通道数)会被用来预测k个box和每个box对应的类别概率,那么具体哪个box才能参与gt box的损失计算(包括类别和box回归损失)?这便需要在所有预测的box中确定正负样本,因为一个anchor对应一个预测的box和类别,那么确定预测的box是正例还是负例等价于确定anchor box的是正例还是反例。为了便于训练,RPN中使用双IoU阈值的方式确定正负样本,与gt box的IoU为最大或者大于0.7的anchor box被设置为正样本,这会导致一个gt box与多个预测box计算损失,即允许多个box预测同一对象,与gt box的IoU小于0.3的anchor box被设置为负样本,其余的忽略掉,即不参与loss计算。在此基础上,如2.2节中所述,会对正负样本进行随机采样,总数为256,其他不参与损失函数计算。 与gt box的IoU大于0.5的proposal box作为正样本,注意,是将proposal box与gt box计算IoU,Fast-RCNN中的proposal box的作用与anchor box有些类似,即确定正负样本和预测的box 都是针对它们的偏移值 ,其余IoU在 之间的作为负样本,低于0.1的作为难例挖掘时的启发式样本(mmdetection中的做法是单阈值方式,与gt box的IoU大于0.5的proposal box作为正样本,小于的都是负样本)。 Faster R-CNN中是以分步的方式联合训练RPN和Fast R-CNN,大致的过程为: 但在mmdetection中,已经将RPN和Fast R-CNN的loss进行权重加和,从而进行联合训练,训练流程简化很多,且能够达到相同的效果。 确定了每个预测box或anchor box的正负类别后,便可以计算损失函数了,类似于Fast RCNN的做法,只有正样本的box才会参与box损失计算,损失函数如下: 为类别损失为类别损失函数,使用交叉熵损失, 为box回归损失,使用smooth L1损失,论文中平衡因子lambda为10。 表示第i个anchor box对应的gt 类别(背景为0,对象为1), 为gt box相对anchor box的偏移量(如果该anchor box被确定为正样本),通过下面的公式计算得到, 即表示只有 ,即为正样本时才会计算box的损失。 Fast R-CNN的loss类似于RPN,只有proposal box为非背景类别(正样本)时才计算box损失, 为类别损失, 为box损失, 表示proposal box的 , 时表示背景(通过2.3.2的方式确定proposal box的类别)。 为平衡因子,作者所有实验中 。为了防止box回归的L2 loss放大噪声(异常loss)从而影响训练,作者将L2 loss修改为 loss,当box尺寸的差异较大时使用L1 loss,抑制异常值对梯度的贡献。 其中v是通过下面的公式将gt box( , , , )转换得到,其中,( , , , )为proposal box的在原图中的中心点坐标和宽与高。 在Faster R-CNN和Faster R-CNN-ResNet中,由于RPN只是在单尺寸的feature map上进行滑窗,为了缓解多尺寸的问题,每个滑窗位置会设计多个尺寸的anchor,但是在Faster R-CNN-FPN中使用了FPN,则天然就具有了适应对象多尺寸的问题,因此不用再为每个滑窗设计多个尺寸的anchor。即在Faster RCNN-FPN中,为每种尺寸feature map上的滑窗只设计了单一尺寸多种长宽比的anchor,长宽比有 、 和 ,不同feature map上anchor的尺寸为: , , , 和 ,依次对应P2、P3、P4、P5和P6。 COCO上的训练细节:RPN的weight decay为0.0001,SGD的 ,初始学习率为0.002,学习率调整使用step decay方式。轻量化CNN构建总结感受野(Receptive Field) 感受野指的是卷积神经网络每一层输出的特征图(feature map)上每个像素点映射回输入图像上的区域大小,神经元感受野的范围越大表示其能接触到的原始图像范围就越大,也意味着它能学习更为全局,语义层次更高的特征信息,相反,范围越小则表示其所包含的特征越趋向局部和细节。因此感受野的范围可以用来大致判断每一层的抽象层次,并且我们可以很明显地知道网络越深,神经元的感受野越大。分辨率(Resolution) 分辨率指的是输入模型的图像尺寸,即长宽大小。通常情况会根据模型下采样次数n和最后一次下采样后feature map的分辨率k×k来决定输入分辨率的大小,即: 从输入r×r到最后一个卷积特征feature map的k×k,整个过程是一个信息逐渐抽象化的过程,即网络学习到的信息逐渐由低级的几何信息转变为高级的语义信息,这个feature map的大小可以是3×3,5×5,7×7,9×9等等,k太大会增加后续的计算量且信息抽象层次不够高,影响网络性能,k太小会造成非常严重的信息丢失,如原始分辨率映射到最后一层的feature map有效区域可能不到一个像素点,使得训练无法收敛。 在ImageNet分类任务中,通常设置的5次下采样,并且考虑到其原始图像大多数在300分辨率左右,所以把最后一个卷积特征大小设定为7×7,将输入尺寸固定为224×224×3。在目标检测任务中,很多采用的是416×416×3的输入尺寸,当然由于很多目标检测模型是全卷积的结构,通常可以使用多尺寸训练的方式,即每次输入只需要保证是32×的图像尺寸大小就行,不固定具体数值。但这种多尺度训练的方式在图像分类当中是不通用的,因为分类模型最后一层是全连接结构,即矩阵乘法,需要固定输入数据的维度。 深度(Depth) 神经网络的深度决定了网络的表达能力,它有两种计算方法,早期的backbone设计都是直接使用卷积层堆叠的方式,它的深度即神经网络的层数,后来的backbone设计采用了更高效的module(或block)堆叠的方式,每个module是由多个卷积层组成,它的深度也可以指module的个数,这种说法在神经架构搜索(NAS)中出现的更为频繁。通常而言网络越深表达能力越强,但深度大于某个值可能会带来相反的效果,所以它的具体设定需要不断调参得到。 宽度(Width) 宽度决定了网络在某一层学到的信息量,但网络的宽度时指的是卷积神经网络中最大的通道数,由卷积核数量最多的层决定。通常的结构设计中卷积核的数量随着层数越来越多的,直到最后一层feature map达到最大,这是因为越到深层,feature map的分辨率越小,所包含的信息越高级,所以需要更多的卷积核来进行学习。通道越多效果越好,但带来的计算量也会大大增加,所以具体设定也是一个调参的过程,并且各层通道数会按照8×的倍数来确定,这样有利于GPU的并行计算。下采样(Down-Sample) 下采样层有两个作用,一是减少计算量,防止过拟合,二是增大感受野,使得后面的卷积核能够学到更加全局的信息。下采样的设计有两种: 采用stride为2的池化层,如Max-pooling或Average-pooling,目前通常使用Max-pooling,因为它计算简单且最大响应能更好保留纹理特征; 采用stride为2的卷积层,下采样的过程是一个信息损失的过程,而池化层是不可学习的,用stride为2的可学习卷积层来代替pooling可以得到更好的效果,当然同时也增加了一定的计算量。 上采样(Up-Sampling) 在卷积神经网络中,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而有时我们需要将图像恢复到原来的尺寸以便进行进一步的计算(如图像的语义分割),这个使图像由小分辨率映射到大分辨率的操作,叫做上采样,它的实现一般有三种方式: 插值,一般使用的是双线性插值,因为效果最好,虽然计算上比其他插值方式复杂,但是相对于卷积计算可以说不值一提; 转置卷积又或是说反卷积,通过对输入feature map间隔填充0,再进行标准的卷积计算,可以使得输出feature map的尺寸比输入更大; Max Unpooling,在对称的max pooling位置记录最大值的索引位置,然后在unpooling阶段时将对应的值放置到原先最大值位置,其余位置补0; 参数量(Params) 参数量指的网络中可学习变量的数量,包括卷积核的权重weight,批归一化(BN)的缩放系数γ,偏移系数β,有些没有BN的层可能有偏置bias,这些都是可学习的参数 ,即在模型训练开始前被赋予初值,在训练过程根据链式法则中不断迭代更新,整个模型的参数量主要由卷积核的权重weight的数量决定,参数量越大,则该结构对运行平台的内存要求越高,参数量的大小是轻量化网络设计的一个重要评价指标。 计算量(FLOPs) 神经网络的前向推理过程基本上都是乘累加计算,所以它的计算量也是指的前向推理过程中乘加运算的次数,通常用FLOPs来表示,即floating point operations(浮点运算数)。计算量越大,在同一平台上模型运行延时越长,尤其是在移动端/嵌入式这种资源受限的平台上想要达到实时性的要求就必须要求模型的计算量尽可能地低,但这个不是严格成正比关系,也跟具体算子的计算密集程度(即计算时间与IO时间占比)和该算子底层优化的程度有关。在神经网络架构设计中,标准卷积是最常见的结构,假设其输入feature map的维度是(1, iC, iH, iW),每个卷积核的维度是(1, iC, k, k),一次卷积滤波得到一层feature map的维度为(1,1, oH, oW),一共有oC个卷积核,则输出feature map的维度是(1, oC, oH, oW),计算量为iC×k×k×oC×oH×oW,深度卷积 (Depthwise Convolution) 深度卷积与标准卷积相比,顾名思义是在深度上做了文章,而这里的深度跟网络的深度无关,它指的通道,标准卷积中每个卷积核都需要与feature map的所有层进行计算,所以每个卷积核的通道数等于输入feature map的通道数,通过设定卷积核的数量可以控制输出feature map的通道数。而深度卷积每个卷积核都是单通道的,维度为(1,1,k,k) ,卷积核的个数为iC,即第i个卷积核与feature map第i个通道进行二维的卷积计算,最后输出维度为(1,iC,oH,oW),它不能改变输出feature map的通道数,所以通常会在深度卷积后面接上一个(oC,iC,1,1)的标准卷积来代替3×3或更大尺寸的标准卷积,总的计算量为iC×k×k×oH×oW+iC×oH×oW×oC,是普通卷积的1/oC+1/(k×k),大大减少了计算量和参数量,又可以达到相同的效果,这种结构被称为深度可分离卷积(Depthwise Separable Convolution),在MobileNet V1被提出,后来渐渐成为轻量化结构设计的标配。 分组卷积 (Group Convolution) 分组卷积最早在AlexNet中出现,当时作者在训练模型时为了减少显存占用而将feature map分组然后给多个GPU进行处理,最后把多个输出进行融合。具体计算过程是,分组卷积首先将输入feature map分成g个组,每个组的大小为(1, iC/g, iH, iW),对应每组中一个卷积核的大小是(1,iC/g,k,k),每组有oC/g个卷积核,所以每组输出feature map的尺寸为(1,oC/g,oH,oW),最终g组输出拼接得到一个(1,oC,oH,oW)的大feature map,总的计算量为iC/g×k×k×oC×oH×oW,是标准卷积的1/g,参数量也是标准卷积的1/g。 空洞卷积 (Dilated Convolution) 空洞卷积是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。通过间隔取值扩大感受野,让原本3x3的卷积核,在相同参数量和计算量下拥有更大的感受野。这里面有个扩张率(dilation rate)的系数, ,标准卷积相当于dilation rate为1的空洞卷积,下图展示的是dilation rate为2的空洞卷积计算过程,可以看出3×3的卷积核可以感知标准的5×5卷积核的范围,还有一种理解思路就是先对3×3的卷积核间隔补0,使它变成5×5的卷积,然后再执行标准卷积的操作。 转置卷积 (Transposed Convolutions) 转置卷积又称反卷积(Deconvolution),它和空洞卷积的思路正好相反,是为上采样而生,也应用于语义分割当中,而且他的计算也和空洞卷积正好相反,先对输入的feature map间隔补0,卷积核不变,然后使用标准的卷积进行计算,得到更大尺寸的feature map。 可变形卷积 (deformable convolution) 以上的卷积计算都是固定的,每次输入不同的图像数据,卷积计算的位置都是完全固定不变,即使是空洞卷积/转置卷积,0填充的位置也都是事先确定的。而可变性卷积是指卷积核上对每一个元素额外增加了一个h和w方向上偏移的参数,然后根据这个偏移在feature map上动态取点来进行卷积计算,这样卷积核就能在训练过程中扩展到很大的范围。而显而易见的是可变性卷积虽然比其他卷积方式更加灵活,可以根据每张输入图片感知不同位置的信息,类似于注意力,从而达到更好的效果,但是它比可行变卷积在增加了很多计算量和实现难度,目前感觉只在GPU上优化的很好,在其他平台上还没有见到部署。池化(pooling) 池化这个操作比较简单,一般在上采样和下采样的时候用到,没有参数,不可学习,但操作极为简单,和depthwise卷积类似,只是把乘累加操作替换成取最大/取平均操作。 最大池化和平均池化 全局平均池化  全局平均池化的操作是对一个维度为(C,H,W)的feature map,在HW方向整个取平均,然后输出一个长度为C的向量,这个操作一般在分类模型的最后一个feature map之后出现,然后接一个全连接层就可以完成分类结果的输出了。早期的分类模型都是把最后一个feature map直接拉平成C×H×W的向量,然后再接全连接层,但是显然可以看出来这个计算量极大,甚至有的模型最后一个全连接层占了整个模型计算量的50%以上,之后由研究人员发现对这个feature map做一个全局平均池化,然后再加全连接层可以达到相似的效果,且计算量降低到了原来的1/HW。 全连接计算(Full Connected) 这个本质其实就是矩阵乘法,输入一个(B, iC)的数据,权重为(iC, oC),那么输出为(B, oC),在多层感知机和分类模型最后一层常常见到。Addition / Concatenate分支 Addition和Concatenate分支操作统称为shortcut,如下图所示,操作极为简单。Addition是在ResNet中提出,两个相同维度的feature map相同位置点的值直接相加,得到新的相同维度feature map,这个操作可以融合之前的特征,增加信息的表达,Concatenate操作是在Inception中首次使用,被DenseNet发扬光大,和addition不同的是,它只要求两个feature map的HW相同,通道数可以不同,然后两个feature map在通道上直接拼接,得到一个更大的feature map,它保留了一些原始的特征,增加了特征的数量,使得有效的信息流继续向后传递。 Channel shuffle channel shuffle是ShuffleNet中首次提出,主要是针对分组卷积中不同组之间信息不流通,对不同组的feature map进行混洗的一个操作,如下图所示,假设原始的feature map维度为(1,9,H,W),被分成了3个组,每个组有三个通道,那么首先将这个feature map进行重塑操作,得到(1,3,3,H,W),然后对中间的两个大小为3的维度进行转置,依然是(1,3,3,H,W),最后将通道拉平,变回(1,9,H,W),就完成了通道混洗,使得不同组的feature map间隔保存,增强了信息的交互。 激活函数的非线性是神经网络发挥作用最重要的因素之一,而对于实际部署,激活函数的实现也是很重要的一个方面,实现的不好对加速效果影响很大。 ReLU系列 这里主要指常用的ReLU,ReLU6和leaky ReLU。ReLU比较好部署,小于0的部分为0,大于0的部分为原始值,只需要判断一下符号位就行;ReLU6与ReLU相比也只是在正向部分多了个阈值,大于6的值等于6,在实现时多了个比较也不算麻烦;而leaky ReLU和ReLU正向部分一样,都是大于0等于原始值,但负向部分却是等于原始值的1/10,浮点运算的话乘个0.1就好了,如果因为量化要实现整数运算,这块可以做个近似,如0.1用137来代替, Sigmoid系列 早期比较经典的卷积神经网络,如AlexNet,VGG,GoogleNet(或Inception),ResNet,DenseNet都是以提升模型在ImageNet数据集上的分类精度为主了,很少考虑参数量和计算量的问题,他们的主要结构解析起来也比较简单,基本都是由标准卷积(7×7,5×5,3×3和1×1),Pooling和shortcut操作(Addition / Concatenate)构成,而且以3×3及其以上的卷积核为主,通道数也是动辄上千,所以参数量和计算量巨大。后续研究人员慢慢发现两个3×3卷积可以代替一个5×5卷积的效果,三个3×3卷积可以代替一个7×7卷积的效果,大量使用1×1卷积,使用3×3 depthwise conv + pointwise conv(1×1标准卷积)可以代替3×3普通卷积......一系列操作可以减少参数量和计算量SqueezeNetSqueezeNet是公认的轻量级模型设计最早期的工作之一,作者提出了三种策略来实现在保持精度的情况下大大减少当时主流模型(以AlexNet为例)的计算量和参数量: 将模型中一部分的3×3卷积用1×1来代替,1×1卷积是3×3参数量和计算量的1/9,所以可以大大减少参数量和计算量;减少3×3卷积的输入通道数,这个可以通过在进入3×3卷积之前加一个1×1卷积来实现通道数量的减少;将下采样层的位置往后推,使得模型可以在更大的feature map上进行更多的学习,这一步虽然会在增加计算量,但是和上面两个策略结合可以在维持模型精度的情况下仍大大减少参数量和计算量;根据上面的策略,作者提出了fire module的子结构,如上图所示,然后整个模型由这样的子结构堆叠而成。这个fire module由squeeze部分和expand部分构成,squeeze部分是1×1的卷积层,而expand部分是1×1的卷积和3×3的卷积拼接起来的,每次feature map输入这个fire module会在squeeze层降低通道数,然后在expand通道增加通道数,从而在参数量更少的情况下仍然可以得到充分的学习。最后结合一些模型压缩的方法可以使得SqueezeNet在达到AlexNet同等精度的情况下,参数量减少到后者的1/50,计算量减少到后者的1/510。 这篇论文使用大量1×1的卷积核代替3×3卷积,并且利用1×1卷积改变大尺度卷积层输入feature map的通道数从而减少计算量的思想是非常有意义的,后续的很多轻量级网路的论文都沿用了这种套路。 MobileNet系列 MobileNet系列一共有V1,V2和V3三篇论文,简要的讲: MobileNet V1主要思想是提出了一种新的结构—深度可分离卷积(Depthwise Separable Convolution)来代替标准3×3卷积,从而大大减少模型的参数量和计算量; MobileNet V2在V1的基础上提出了一种倒置残差的模块,这个模块有三个卷积,第一个部分是一个1×1标准卷积,用来升维,第二个部分是由3×3深度卷积+1×1标准卷积构成的深度分离卷积,用来学习特征和降维,模块的输出和输入再进行一个Addition的操作,由于和ResNet中维度升降方式相反,所以称为倒置残差。中间升维的作用是让深度可分离卷积得到更充分的学习,计算量相对于标准卷积来说也不大,而且这种升降维的方式非常灵活,可以大大减少计算量。本文还从流形学的角度探究了输入深度可分离卷积上一层的ReLU6对信息传递的影响,理论证明去掉上一个1×1标准卷积的ReLU激活函数能更有利于后面的深度可分离卷积对特征的学习。 MobileNet V3感觉相对于前两篇没有那么大的结构创新了,主要思想是神经架构搜索(NAS)和硬件友好结构,总的来看V3的结构是在V2的基础上进行了一些修改,如增加了SE block这种已被提出的注意力机制,激活函数换成了H-swish,last stage减少了几层计算,针对语义分割提出了Lite R-ASPP的head(不在讨论之列)。ShuffleNet系列  旷视出品的ShuffleNet系列有两篇论文 ShuffleNet V1是在MobileNet V1后MobileNet V2前提出的,说实话结构上和MobileNet V2还挺像,大家可以上下两张图片对比一下。两者都想到了学习ResNet的残差结构,区别在于ShuffleNet V1觉得block当中的1×1标准卷积也非常耗时,于是用1×1的分组卷积外加channel shuffle的操作给替换了,然后MobileNet V2会先升维让深度可分离卷积得到充分的学习再降维回来,ShuffleNet V1中stride为2的模块也有自己的特色,虽然看着MobileNet V2的结构更简洁一些,但ShuffleNet V1创新也是不少,尤其那个用channel shuffle增强不同组之间信息交互的操作huffleNet  V2论文是一篇诚意满满之作,作者通过分析ShuffleNet v1与MobileNet v2这两个移动端网络在GPU/ARM两种平台下的时间消耗分布,看出Conv等计算密集型操作占了绝大多数时间,但其它像Elemwise和IO等内存读写密集型操作也占了相当比例的时间,因此像以往那样仅以FLOPs来作为指导准则来设计CNN网络是不完备的,虽然它可以反映出占大比例时间的Conv操作,但不够准确。于是作者提出了高效网络设计的四个指导原则: 当输入和输出的通道数相同时,conv计算所需的MAC(memory access cost)最小; 大量的分组卷积会增加MAC开销; 网络结构的碎片化会减少其可并行优化的程度,GoogleNet系列和NASNet中很多分支进行不同的卷积/pool计算非常碎片,对硬件运行很不友好; Element-wise操作不可忽视,对延时影响很大,包括ReLU,Addition,AddBias等,主要是因为这些操作计算与内存访问的占比太小;基于此,作者提出了ShuffleNet V2的blocks,如下所示,与V1相比,去掉了分组卷积的操作,去掉了Add操作,换成了Concat,stride为2的block的旁路把平均池化换成了深度可分离卷积,为了继续延续channel shuffle的操作,作者在block进去的地方做了个split的操作,最后再concat+channel shuffle,这里是为了替换掉之前的Add,同时也可以减少计算量。GhostNet GhostNet也是一篇很有意思且简洁的架构设计的论文,作者在可视化一些训练好的神经网络中间feature map时发现它们通常会包含一些相似且冗余的特征图,使得神经网络能得到更充分的学习。基于这个想法,作者通过设定一系列廉价的线性运算操作来代替部分卷积计算,以此来产生更多的特征图,仅仅这么一个简单的操作就可以减少模型的参数量和计算量,而且在几个视觉公开数据集上取得了很不错的效果,甚至超越了MobileNet V3 总的思路:选定合适结构 + 通道剪枝 + 量化 训练  :ImageNet pretrain model + Data Normalization(统计自己数据集的均值和方差) + Batch Normlization + 大batch size + 一堆数据增强tricks + 尝试各种花里胡哨的loss function和optimizerYOLOV4简介 其他基础操作: 便于分析,将Yolov4 的整体结构拆分四大板块: (1)输入端:训练时对输入端的改进,主要包括Mosaic数据增强,cmBN,SAT自对抗训练。 (2)BackBone主干网络:将各种新的方式结合起来,包括:CSPDarknet53,Mish激活函数,Dropblock。 (3)Neck:目标检测网络在BackBone和最后的输出层之间往往会插入一些层,比如Yolov4的SPP模块,FPN+PAN结构。 (4)Prediction:输出层的锚框机制和Yolov3相同,主要改进的是训练时的损失函数CIOU_Loss,以及预测框筛选的nms变为DIOU_nms。 (1)Mosaic数据增强。 Yolov4中使用的Mosaic是参考2019年提出的CutMix数据增强的方式,但CutMix只使用了两张图片进行拼接,而Mosaic数据增强则采用了4张图片,随机缩放,随机裁剪,随机排布的方式进行拼接。 (1)CSPDarknet53 CSPDarknet53是在Yolov3主干网络Darknet53的基础上,借鉴2019年的CSPNet的经验,产生的Backbone结构,其中包含了5个CSP模块。 Backbone中卷积层的数量: 每个CSP模块前面的卷积核大小都是3x3,步长为2,因此可以起到下采样的作用。 因为Backbone有5个CSP模块,输入图像是608 x 608,所以特征图的变化规律是:608-304-152-76-38-19 经过5次CSP模块后得到19*19大小的特征图。 而且作者只在Backbone中采用Mish激活函数,网络后面任然采用Leaky_relu激活函数。 CSPNet的作者认为推理计算过高的问题是由于网络优化中的 梯度信息重复 导致的。 因此采用CSP模块先将基础层的特征映射划分为两部分,然后通过跨阶段层次结构将他们合并,在减少计算量的同时可以保证准确率。 因此Yolov4在主干网络Backbone采用 CSPDarknet53网络结构 ,主要是有三个方面的优点: Yolov4中使用的Dropblock,其实和常见网络中的Dropout功能类似,也是一种缓解过拟合的一种正则化方式。 传统的Dropout很简单: 随机删除减少神经元的数量,使网络变得更简单。 这种方式其实是借鉴2017年的Cutout数据增强的方式,cutout是将输入图像的部分区域清零,而Dropblock则是将Cutout应用到每一个特征图。而且并不是用固定的归零比率,而是在训练时以一个小的比率开始,随着训练过程线性的增加这个比率。 Dropblock 与 Cutout数据增强 对训练效果进行对比验证时,发现几个优点: 在目标检测领域,为了更好的提取融合特征,通常在Backbone和输出层,会插入一些层,这个部分称为Neck。 Yolov4的Neck结构主要采用了SPP模块,FPN+PAN的方式。 (1)SPP模块 SPP模块 在Backbone的主干网络之后: (2)FPN+PAN PAN结构是借鉴 2018年图像分割领域PANet的创新点 看下Yolov3和Yolov4中是如何设计的。 前面CSPDarknet53中讲到,每个CSP模块前面的卷积核都是3x3大小,想当于下采样操作。 因此可以看到三个紫色箭头处的特征图是76x76,38x38,19x19。 以及最后Prediction中用于预测的三个特征图:①76×76×255,②38×38×255,③19×19×255。 我们也看下Neck部分的立体图像,看下两部分是如何通过FPN+PAN结构进行融合的。 原本的PANet网络的PAN结构中,两个特征图结合是采用shortcut操作,而Yolov4中则采用concat 操作,特征图融合后的尺寸发生了变化。 (1)CIOU_loss 目标检测任务的损失函数一般由Classificition Loss(分类损失函数)和Bounding Box Regeression Loss(回归损失函数)两部分构成。 Bounding Box Regeression的Loss近些年的发展过程是: Smooth L1 Loss- IoU Loss(2016)- GIoU Loss(2019)- DIoU Loss(2020)-CIoU Loss(2020) 从最常用的 IOU_Loss 开始,进行对比拆解分析,看下Yolov4为啥要选择 CIOU_Loss 。 -------------------------------------------------------IOU_loss------------------------------ 问题一 :即状态1的情况,当预测框和目标框不相交时,IOU=0,无法反应两个框距离的远近,此时损失函数不可导,IOU_Loss无法优化两个框不相交的情况。 问题二 :即状态2和状态3的情况,当两个预测框大小相同,两个IOU也相同,IOU_Loss无法区分两者相交情况的不同。 因此2019年出现了GIOU_Loss来进行改进。 -------------------------------------------------------GIOU------------------------------------- 看到上图的GIOU_loss中,增加了相交尺度的衡量方式,缓解了 单纯IOU_Loss 时的尴尬。 但为什么仅仅说缓解呢?因为还存在一种不足: 基于这个问题, 2020年的AAAI又提出了DIOU_Loss 。 ------------------------------------------------DIOU_Loss------------------------------------------------------------ 好的目标框回归函数应该考虑三个重要的几何因素: 重叠面积,中心点距离,长宽比。 针对IOU和GIOU存在的问题,作者从两个方面进行考虑 一:如何最小化预测框和目标框之间的归一化距离? 二:如何在预测框和目标框重叠时,回归的更准确? 针对第一个问题,作者提出了DIOU_Loss -----------------------------------------------------------CIOU_Loss----------------------------------------------------- CIOU_Loss 和 DIOU_Loss 前面的公式都是一样的,不过在此基础上还增加了一个 影响因子 ,将预测框和目标框的长宽比都考虑了进去。 这样CIOU_Loss就将目标框回归函数应该考虑三个重要几何因素:重叠面积、中心点距离,长宽比全都考虑进去了。 再来综合的看下各个Loss函数的不同点: nms主要用于预测框的筛选,YOLOV4将其中计算IOU的部分替换成DIOU的方式 在上图重叠的摩托车检测中,中间的摩托车因为考虑边界框中心点的位置信息,也可以回归出来。 因此在重叠目标的检测中,DIOU_nms的效果优于传统的nms。 注意 :为什么不用CIOU_nms,而用DIOU_nms? 因为前面讲到的CIOU_loss,实在DIOU_loss的基础上,添加的影响因子,包含groundtruth标注框的信息,在训练时用于回归。 但在测试过程中,并没有groundtruth的信息,不用考虑影响因子,因此直接用DIOU_nms即可。RetinaNetbackbone :ResNet50, ResNet101 neck : FPN P3-P5由ResNet得到,P6由P5经过stride=2的3*3卷积得到,P7由P6经过ReLU和stride=2的3*3卷积得到。P3-P7的stride分别为8,16,32,64,128。 层间融合:高分辨率层上采样,低分辨率1*1卷积,两者维度一致,直接相加后再3*3卷积。 head : classification(KA) + regression(4A),在图(c)和(d)中,不同层的head共享参数(concatenate操作),但是分类和回归分支之间不共享。 loss : Focal loss + smooth L1 alpha平衡正负样本loss,取0.25;gamma平衡难易样本,取2。 分类loss是所有正负例的focal loss求和,然后除以类别为正例的anchors总数(正负例anchor数量平衡)。 回归loss是所有正例的smooth L1 loss求和,然后除以类别为正例的anchors总数。 在loss计算前去除掉所有超出图片边界的Anchor,这部分Anchor不用于loss计算(和faster rcnn一致)。 bootstrapping: hard example mining:抽样方法,SSD中使用,预先确定的比率(通常前景:背景为1:3)选择loss最大的topK背景框。 Focal loss: 降低大量easy negatives的loss权重,根据置信度动态调整loss,速度更快,效果更好。 2.1 anchor的分布 长宽比: [0.5, 1, 2],scale: [2**0, 2**(1/3), 2**(2/3)],组合得到9组anchor aspects/每个feature点 P3-P7基础size为32, 64, 128, 256, 512,乘以aspects,覆盖输入范围32-813 越高层的anchor size约大,越倾向于检测大目标。 2.2 anchor的物理含义 对于长宽为(原图H/8,原图W/8)的特征图,其特征图上的每个单元格cell对应原图区域上(32,32)大小的对应区域(这里对应的大小并不是实际感受野的大小,而是一种人为的近似设置)。 在大小为base_size的正方形框的基础上,对框进行长宽比例调整和缩放形成9种所anchor,以及一个单元格cell的通道维和anchor对应的关系,如下图所示。 2.3 多层FPN如何分配目标 (1)公式选层 (2)IoU选层 将FPN所有层的全部anchor与ground truth计算IoU,将目标分配给得分高于阈值且最高的anchor(低于阈值情况很少,所以去掉低于阈值的最高分也影响不大) (3)loss选层 FSAF中选择loss最小的层预测目标 采用目标-anchor iou双阈值区分正样本,负样本和忽略样本。     backbone采用在ImageNet上预训练的ResNet,新增的卷积层普通初始化(bias=0,sigma=0.01),分类分支最后的卷积层的bias初始化为: 相当于模型初始训练时,每个anchor预测为正例设置一个先验概率值,论文中采用的是0.01,权重参数通常初始化为(0,0.01)高斯分布,意味着分类为正例的概率为0.01,这是合理的。因为真实场景中很多anchor是负例,设置先验值可以大大降低负样本在开始训练时的loss,这样训练更容易,相当于手动warmup。     分类分支输出channel为KA,最后sigmoid激活就可以得到各个anchor预测每个类别的概率,即每个位置相当于KA个二分类,因此某个位置的某个anchor可能会输出几个类别不同但是box一样的预测框。也正是因为采用了sigmoid二分类,才有上面 每个anchor所有类别都初始化为bias=0.01 4.1 保留top1K候选bbox 4.2 用0.05的阈值过滤掉负类 4.3 全部level结果concat,IoU=0.5 NMS过滤重叠框 (1)SSD的多尺度是独立的,RetinaNet的FPN在不同尺度之间进行了层间融合 (2)SSD的采用softmax多分类,RetinaNet以及后续改进的FCOS都是采用K个二分类(Focal loss默认是二分类) (3)为了与配合focal loss,RetinaNet的分类分支最后的卷积层的bias初始化为0.01,可以加快训练和收敛 (4)RetinaNet的不同层head部分共享参数,检测和分类分支之间参数不共享,各层分类/回归结果concat再求loss (1)backbone不同,YOLOV3的backbone是基于DarkNet-53,RetinaNet是ResNet50或101。 (2)FPN层数不同,YOLOV3的FPN只有P3-P5,RetinaNet是P3-P7 (3)loss不同,RetinaNet是focal loss YOLO V3之后的检测模型从数据增强、backbone、neck和head等维度已经趋向统一。 标签: backbone是怎么训练的
    猪猪游戏 2022-11-30
  • 保卫萝卜天际5(保卫萝卜天际第12关攻略)
    游戏攻略

    保卫萝卜天际5(保卫萝卜天际第12关攻略)

    保卫萝卜天际的 第六关怎么摆阵我觉得其实每一关每个人过的方式都不一样的,你只要找好路子,尽量用攻击力强的,适当的升级跟多摆。举个例子:红色的那个激光,顶级激光+一级激光的攻击力就没有2级激光加2级激光强。但是钱却比它多。天际6里面只有便便跟风扇,要注意分析,1,便便的攻击距离小,而且是用来减速的,那么就要尽量让它呆在拐角的地方,可以增大他的攻击时间,还要靠近道路。2,风扇是攻击距离要大,可以适当的远点,但是它是直线攻击,还不回消除,所以要放在直道的开始地方。3,每张图里面都会随机的出道具,想火箭,飞机什么,这是要看运气的。4,每张图里也都有固定的道具,这个可以多玩几次,都在云彩,树木,石头里面。打完之后大概记住就好了。有的时候打出来的道具是用不到的,即使是升级到顶级也够不到怪,这样的可以直拆掉5,在打到最后一关的时候,怪已经走到后面了,前面的的道具已经达不到怪了就点暂停,把前面的拆掉,换成钱,可在后面重新建道具,或升级,加强攻击。6,再补一点技巧吧,多点暂停,摆道具的时候点暂停,开始的时候先暂停,放好道具之后再开始(有好几关都是要争着开始的一点时间,才能保证金萝卜的),如果不放心,升级的时候也可以点暂停7,还是第一点,不一定要全部顶级,也不一定呀把空都摆满,但是一定要把关键的位置放上在这个位置最有用的道具总之每局都是这样,自己摸索摸索才有意思。我到现在还有挑战关里面的一关没拿到金萝卜,玩了好几个月了,那一关现在是我玩萝卜的唯一乐趣。感觉用别人的方法自己过了,那都过了之后就没什么玩的了。所以不推荐那些教程。保卫萝卜 天际第五关 求图球攻略!在中间一排空余的位置放上星星和便便,把所有的攻击点聚集一起即可过关。如果你还有什么不懂的可以直接访问图中右下角的地址,到保卫萝卜专区看详细的攻略,希望可以帮到你,望采纳谢谢!保卫萝卜冒险模式天际攻略网址有谁知道?利用.新闻网页音乐图片视频地图利用简介:保卫萝卜攻略利用为用户提供最新最全的保卫萝卜攻略包括保卫萝卜冒险模式Skyline天际主题攻略第1关,保卫萝卜冒险模式保卫萝卜哪一关可以获得怪物蛋得到的蛋是随机的,天际5个丛林5个沙漠5个深海5个+巨鲸LZ就从了。在大家玩游戏的时候,有时候怪物行走的路线上会有一定的几率出现一个礼物盒,然后点开就有一定的几率出现不同的怪物蛋。这个时候,然后多玩,既可以收集更多的怪物蛋了。保卫萝卜5什么时候出的2021年12月1日。保卫萝卜5是在2021年12月1日出的,保卫萝卜5是保卫萝卜系列最新的一款塔防游戏,在这款游戏中将体验到新的防御工具,体验到极致的打怪兽保护萝卜的快感。 标签: 保卫萝卜天际5
    猪猪游戏 2022-11-30
  • 秋之回忆7全结局攻略(秋之回忆8全路线攻略 不剧透)
    游戏攻略

    秋之回忆7全结局攻略(秋之回忆8全路线攻略 不剧透)

    求【秋之回忆7】南云霞的HAPPY 结局攻略!谢谢了!不过要详细点哟!!首先请确定已经解锁真实篇章(完成另外三个女主的HE)打勾勾:织姬⇒不打 回想一些关于鹿电的事 恋人 警告她 是千夏? 总之,不行就是不行。 打勾勾:诗名⇒不打 相信霞所说的话 睡魔 拜托千夏处理 打勾勾:千夏⇒打 打开电灯 那么,我也就不能苛责她了。 提醒一下千夏 当然是她拿手的……摄影社 很可爱的服装 因为很痛,才会大叫 打电话给她 我很欢迎 干脆去做一些非法买卖好了! 如果被千夏知情的话 我想不出来…… 打勾勾:里莎⇒不打 送她一程 道歉 因为你的脸靠太近了 你就是当事人啦 接客的规矩 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 跟京姊打声招呼再回去吧 你也来帮忙 想要了解 不要提议 和霞一起到外面 你长得好漂亮 千夏 发生什么事是指? 删除广告简讯 再问一次 把她挖起来 今天先拒绝 既然这样,就麻烦你帮忙吧 住在附近的—— 坚决地阻止 带出门 是你听错了! 拉她手 坚持拒绝 打勾勾:千夏⇒打 我不能把感冒传染给你啊 就照老师说的吧 不请 好可爱啊 抱住千夏! 抓娃娃送她 直接离开 打勾勾:织姬⇒不打 抱住她 给她备用钥匙 【千夏・霞共通】没什么 太过分了 发生了不少事 对天川叔感到不满 早上跟晚上用的 长得高,身材又好的女孩子 出声叫霞 那就接受她的好意吧 我想娶你 随便走走 很在意霞 SAVE17 拿起来,出门追霞 海岸 为什么哭呢? 我来帮忙找东西吧! 那又怎么样 外遇被霞发现 问说这是对我的挑战吗 送霞回去吗? 期待 霞,怎么了? 寻找霞 碰巧 就跟上次说过的一样 我叫不动那家伙啊 邀霞一起去 说 真是可惜 即使如此我还是想看 应该要寻找 【霞篇】SAVE18 霞 霞BadEnd SAVE18读取 千夏 BadEnd2 SAVE17读取 不拿秋之回忆7攻略推荐按里莎-诗名-织姬-霞-千夏的顺序攻略,剧本的层次和真相一步步增加,感受多一些。以下均为HE。里莎【共通线】打勾勾:织姬⇒打 警告她 是千夏? 总之让我再考虑一下。 打勾勾:诗名⇒不打 睡魔 打勾勾:诗名⇒不打 超大黑马的……文艺社 很可爱的女孩 其实是那个地方的口误啦 不打电话给她 我受不了了 去打工好了 如果被织姬老师知情的话 有里莎在的风流庵? 打勾勾:里莎⇒打 因为你的脸靠太近了 你就是当事人啦 接客的规矩 纠正她 打勾勾:里莎⇒打 打勾勾:诗名⇒不打 里莎现在不知道在做什么? 前往风流庵 里莎 是黄色的石头吗? 删除广告简讯 抚摸她 今天先拒绝 还是我一个人做就好 坚决地阻止 带出门 是隔壁住户传来的! 坚持拒绝 打勾勾:千夏⇒不打 就照老师说的吧 不请 打勾勾:千夏⇒不打 直接离开 打勾勾:织姬⇒不打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 说得没错,用笑脸就可以被客人原谅 打勾勾:织姬⇒不打 还是去学生食堂吃午餐呢? 里莎? 【里莎篇】来打电话确认一下 被里莎这么讲,感觉就充满着自信呢 打勾勾:里莎⇒打 打勾勾:里莎⇒打 打勾勾:里莎⇒打 =============================================================诗名【共通线】打勾勾:织姬⇒打 警告她 是千夏? 总之让我再考虑一下。 打勾勾:诗名⇒打 诗名 打勾勾:诗名⇒打 超大黑马的……文艺社 很可爱的服装 因为很痛,才会大叫 不打电话给她 我受不了了 去打工好了 如果被诗名知情的话 我想不出来…… 打勾勾:里莎⇒不打 还以为是睡觉中被袭击 现在是开玩笑的时候吗? 点餐的方法 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒打 诗名已经回去了吗? 在车站前消磨时间 自己一个人去 用手机确认时间 帮她盖好棉被 今天先拒绝 还是我一个人做就好 坚决地阻止 不带 是你听错了! 坚持拒绝 就照老师说的吧 请客 打勾勾:千夏⇒不打 直接离开 打勾勾:织姬⇒不打 打勾勾:霞⇒不打 像花瓣一样地飘舞而下 打勾勾:诗名⇒打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒不打 还是去学生食堂吃午餐呢? 诗名? 【诗名篇】陪她去 打勾勾:诗名⇒打 照信上所说等待 很开朗 打勾勾:诗名⇒打 有单相思的经验吗? 关于单恋 再稍微等一下 装死 吃下去 =============================================================织姬【共通线】打勾勾:织姬⇒打 警告她 是千夏? 总之让我再考虑一下。 打勾勾:诗名⇒不打 睡魔 打勾勾:诗名⇒不打 超大黑马的……文艺社 很可爱的女孩 其实是那个地方的口误啦 不打电话给她 我受不了了 去打工好了 如果被织姬老师知情的话 在社办帮织姬老师的忙? 打勾勾:里莎⇒不打 因为你的脸靠太近了 你就是当事人啦 点餐的方法 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 诗名已经回去了吗? 搭乘鹿电到别的地方逛逛 我来帮忙搬吧 *此处请存档1*自己一个人去 删除广告简讯 什么也不作 答应下来 还是我一个人做就好 婉约地阻止 带出门 是电视的声音啦! 至少听完他说什么 打勾勾:千夏⇒不打 别这样 打勾勾:织姬⇒打 即使这样还是要帮忙 不请 打勾勾:千夏⇒不打 出声叫老师 打勾勾:织姬⇒打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒打 要去购买部买面包吗…… 织姬老师? 【织姬篇】去好好地交个男朋友如何? 打勾勾:千夏⇒不打 逃走 抽奖的奖品 总之先叫她马上赶往风流庵 打勾勾:织姬⇒打 自己选择下一个游乐设施。 今天睡了一整天。 掩饰过去。 OK啊。 打勾勾:织姬⇒打 叫老师小心 打勾勾:千夏⇒不打 清楚地说出不喜欢 打勾勾:织姬⇒打 跟她打气说,不要紧的喔…… =============================================================霞【共通线】打勾勾:织姬⇒不打 回想一些关于鹿电的事 恋人 警告她 是千夏? 总之,不行就是不行。 打勾勾:诗名⇒不打 相信霞所说的话 睡魔 拜托千夏处理 打勾勾:千夏⇒打 打开电灯 那么,我也就不能苛责她了。 提醒一下千夏 当然是她拿手的……摄影社 很可爱的服装 因为很痛,才会大叫 打电话给她 我很欢迎 干脆去做一些非法买卖好了! 如果被千夏知情的话 我想不出来…… 打勾勾:里莎⇒不打 送她一程 道歉 因为你的脸靠太近了 你就是当事人啦 接客的规矩 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 跟京姊打声招呼再回去吧 你也来帮忙 想要了解 不要提议 和霞一起到外面 你长得好漂亮 千夏 发生什么事是指? 删除广告简讯 再问一次 把她挖起来 今天先拒绝 既然这样,就麻烦你帮忙吧 住在附近的—— 坚决地阻止 带出门 是你听错了! 拉她手 坚持拒绝 打勾勾:千夏⇒打 我不能把感冒传染给你啊 就照老师说的吧 不请 好可爱啊 抱住千夏! 抓娃娃送她 直接离开 打勾勾:织姬⇒不打 抱住她 给她备用钥匙 【千夏・霞共通】没什么 太过分了 发生了不少事 对天川叔感到不满 早上跟晚上用的 长得高,身材又好的女孩子 出声叫霞 那就接受她的好意吧 我想娶你 随便走走 很在意霞 拿起来,出门追霞 海岸 为什么哭呢? 我来帮忙找东西吧! 那又怎么样 外遇被霞发现 问说这是对我的挑战吗 送霞回去吗? 期待 霞,怎么了? 寻找霞 碰巧 就跟上次说过的一样 我叫不动那家伙啊 邀霞一起去 说 真是可惜 即使如此我还是想看 应该要寻找 【霞篇】霞 =============================================================千夏【共通线】打勾勾:织姬⇒不打 回想一些关于鹿电的事 恋人 警告她 是千夏? 总之,不行就是不行。 打勾勾:诗名⇒不打 相信霞所说的话 睡魔 拜托千夏处理 打勾勾:千夏⇒打 打开电灯 那么,我也就不能苛责她了。 提醒一下千夏 当然是她拿手的……摄影社 很可爱的服装 因为很痛,才会大叫 打电话给她 我很欢迎 干脆去做一些非法买卖好了! 如果被千夏知情的话 我想不出来…… 打勾勾:里莎⇒不打 送她一程 道歉 因为你的脸靠太近了 你就是当事人啦 接客的规矩 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 跟京姊打声招呼再回去吧 你也来帮忙 想要了解 不要提议 和千夏一起到外面吃你长得好漂亮 千夏 发生什么事是指? 删除广告简讯 再问一次 把她挖起来 今天先拒绝 既然这样,就麻烦你帮忙吧 住在附近的—— 坚决地阻止 带出门 是你听错了! 拉她手 坚持拒绝 打勾勾:千夏⇒打 我不能把感冒传染给你啊 就照老师说的吧 不请 好可爱啊 抱住千夏! 抓娃娃送她 直接离开 打勾勾:织姬⇒不打 抱住她 给她备用钥匙 【千夏・霞共通】啊~~真是幸福啊! 真高兴 发生了不少事 对天川叔感到不满 早上跟晚上用的 娇小可爱的女孩子 默不作声 打电话给千夏 感觉好像被骗了 公园 ………… 我就这么不可靠吗? 还是再考虑一下好了 外遇被千夏发现 问说这是打算收买代理店长吗 送千夏回去吗? 不安 千夏,怎么了? 寻找千夏 告诉她特价情报 因为太麻烦了 ……你在说什么蠢话啊 邀千夏一起去 我知道 不说 理所当然 即使如此我还是想看 应该要寻找 【千夏篇】抓住千夏的手 请交给我吧 石阶 =============================================================注1:只有里莎和织姬线有GE注2::里莎GE就是里莎线最后三个勾勾都不打注3:织姬线GE较麻烦,要从HE攻略中存档位置开始变更较多选项,如下:千夏 发生什么事是指? 删除广告简讯 什么也不作 答应下来 既然这样,就麻烦你帮忙吧 住在附近的—— 婉约地阻止 带出门 是你听错了! 至少听完他说什么 打勾勾:千夏⇒不打 别这样 打勾勾:织姬⇒打 即使这样还是要帮忙 不请 打勾勾:千夏⇒不打 出声叫老师 打勾勾:织姬⇒打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒打 还是要去拜托千夏? 织姬老师?【织姬篇】去好好地交个男朋友如何? 打勾勾:千夏⇒不打 逃走 为了老师而买的。 基本上,还是先打个电话去风流庵确认一下状况好了 打勾勾:织姬⇒打 自己选择下一个游乐设施。 今天睡了一整天。 掩饰过去。 OK啊。 打勾勾:织姬⇒打 叫老师小心 打勾勾:千夏⇒不打 选择不会伤到她的话 打勾勾:织姬⇒不打 安慰她说,我也很喜欢千夏……有关秋之回忆7的攻略当然可以,以下是攻略注意,有如下须知:1.织姬、里莎、诗名三人的HappyEnd达成后方可进入千夏・霞共通路线。2.本攻略只能帮你达成所有结局,收齐所有CG,若想完成对话100%还请自行努力。3.有一个选择项“把她挖起来”估计是PC版的一个错误,应该是“叫她起来-----------------------------------------------------------------------------------------------------------------------注意,以下攻略中打@号的,为特定条件下出现选项,若无可以无视织姬HappyEnd打勾勾:织姬⇒打 回想一些关于鹿电的事 @兄妹 @警告她 是千夏? 总之让我再考虑一下。 SAVE1(织姬BadEnd1、诗名路线分歧使用) 打勾勾:诗名⇒不打 不相信霞所说的话 @睡魔 拜托诗名处理 @打勾勾:诗名⇒不打 无视她 @超大黑马的……文艺社 很可爱的女孩 其实是那个地方的口误啦 不打电话给她 我受不了了 去打工好了 如果被织姬老师知情的话 SAVE2(里莎路线分歧使用) 在社办帮织姬老师的忙? 打勾勾:里莎⇒不打 今天还是算了 不道歉 因为你的脸靠太近了 你就是当事人啦 点餐的方法 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 诗名已经回去了吗? 我要先走了 @出去外面吃吧 @搭乘鹿电到别的地方逛逛 我来帮忙搬吧 SAVE3 自己一个人去 删除广告简讯 不管她 @什么也不作 答应下来 还是我一个人做就好 婉约地阻止 带出门 是电视的声音啦! 叫她起来 @至少听完他说什么 打勾勾:千夏⇒不打 别这样 打勾勾:织姬⇒打 即使这样还是要帮忙 不请 打勾勾:千夏⇒不打 出声叫老师 打勾勾:织姬⇒打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒打 要去购买部买面包吗…… 织姬老师? 【织姬篇】去好好地交个男朋友如何? 打勾勾:千夏⇒不打 逃走 抽奖的奖品 总之先叫她马上赶往风流庵 打勾勾:织姬⇒打 自己选择下一个游乐设施。 SAVE4 今天睡了一整天。 掩饰过去。 OK啊。 打勾勾:织姬⇒打 叫老师小心 打勾勾:千夏⇒不打 清楚地说出不喜欢 打勾勾:织姬⇒打 跟她打气说,不要紧的喔…… 织姬BadEnd1SAVE1读取后,所有选择项跟HappyEnd选一样的,所有打勾勾全部「打」。进入织姬路线后所有与千夏有关的打勾勾全部「不打」。织姬GoodEndSAVE3读取 千夏 发生什么事是指? 删除广告简讯 不管她 @什么也不作 答应下来 既然这样,就麻烦你帮忙吧 住在附近的—— 婉约地阻止 带出门 是你听错了! 叫她起来 @至少听完他说什么 打勾勾:千夏⇒不打 别这样 打勾勾:织姬⇒打 即使这样还是要帮忙 不请 打勾勾:千夏⇒不打 出声叫老师 打勾勾:织姬⇒打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒打 还是要去拜托千夏? 织姬老师? 【织姬篇】去好好地交个男朋友如何? SAVE5 打勾勾:千夏⇒不打 逃走 为了老师而买的。 基本上,还是先打个电话去风流庵确认一下状况好了 打勾勾:织姬⇒打 自己选择下一个游乐设施。 今天睡了一整天。 掩饰过去。 OK啊。 打勾勾:织姬⇒打 叫老师小心 打勾勾:千夏⇒不打 选择不会伤到她的话 打勾勾:织姬⇒不打 安慰她说,我也很喜欢千夏…… 回收用SAVE5读取 打勾勾:千夏⇒打 织姬NormalEndSAVE4读取 在海洋世界跟织姬老师同行游玩。 说实话。 OK啊。 打勾勾:织姬⇒不打 叫老师小心 打勾勾:千夏⇒打 选择不会伤到她的话 打勾勾:织姬⇒不打 SAVE6 向她道歉说,让你有这种遭遇的我才不应该…… 织姬BadEnd2SAVE6读取 安慰她说,我也很喜欢千夏…… -----------------------------------------------------------------------------------------------------------------------里莎HappyEnd打勾勾:织姬⇒打 回想一些关于鹿电的事 @兄妹 @警告她 是千夏? 总之让我再考虑一下。 打勾勾:诗名⇒不打 不相信霞所说的话 @睡魔 拜托诗名处理 @打勾勾:诗名⇒不打 无视她 @超大黑马的……文艺社 很可爱的女孩 其实是那个地方的口误啦 不打电话给她 我受不了了 去打工好了 如果被织姬老师知情的话 有里莎在的风流庵? 打勾勾:里莎⇒打 今天还是算了 @不道歉 @因为你的脸靠太近了 你就是当事人啦 接客的规矩 纠正她 打勾勾:里莎⇒打 打勾勾:诗名⇒不打 里莎现在不知道在做什么? 我要先走了 @出去外面吃吧 @前往风流庵 里莎 是黄色的石头吗? 删除广告简讯 不管她 @抚摸她 今天先拒绝 还是我一个人做就好 坚决地阻止 带出门 是隔壁住户传来的! 叫她起来 @坚持拒绝 打勾勾:千夏⇒不打 就照老师说的吧 不请 打勾勾:千夏⇒不打 直接离开 打勾勾:织姬⇒不打 打勾勾:霞⇒不打 就是那封简讯啦! 打勾勾:诗名⇒不打 说得没错,用笑脸就可以被客人原谅 打勾勾:织姬⇒不打 还是去学生食堂吃午餐呢? 里莎? 【里莎篇】来打电话确认一下 被里莎这么讲,感觉就充满着自信呢 SAVE7 打勾勾:里莎⇒打 打勾勾:里莎⇒打 打勾勾:里莎⇒打 里莎GoodEndSAVE7读取 打勾勾:里莎⇒不打 打勾勾:里莎⇒不打 打勾勾:里莎⇒不打 -----------------------------------------------------------------------------------------------------------------------诗名HappyEnd打勾勾:织姬⇒打 回想一些关于鹿电的事 @兄妹 @警告她 是千夏? 总之让我再考虑一下。 打勾勾:诗名⇒打 不相信霞所说的话 @诗名 拜托诗名处理 @打勾勾:诗名⇒打 无视她 @超大黑马的……文艺社 很可爱的服装 因为很痛,才会大叫 不打电话给她 我受不了了 去打工好了 如果被诗名知情的话 我想不出来…… 打勾勾:里莎⇒不打 今天还是算了 @不道歉 @还以为是睡觉中被袭击 现在是开玩笑的时候吗? 点餐的方法 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒打 诗名已经回去了吗? 我要先走了 @出去外面吃吧 @在车站前消磨时间 自己一个人去 用手机确认时间 不管她 @帮她盖好棉被 今天先拒绝 还是我一个人做就好 坚决地阻止 不带 是你听错了! 叫她起来 @坚持拒绝 就照老师说的吧 请客 打勾勾:千夏⇒不打 直接离开 打勾勾:织姬⇒不打 打勾勾:霞⇒不打 像花瓣一样地飘舞而下 SAVE8 打勾勾:诗名⇒打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒不打 还是去学生食堂吃午餐呢? 诗名? 【诗名篇】陪她去 打勾勾:诗名⇒打 照信上所说等待 很开朗 打勾勾:诗名⇒打 有单相思的经验吗? 关于单恋 再稍微等一下 装死 吃下去 诗名BadEndSAVE8读取 打勾勾:诗名⇒不打 出菜变慢这事是不被允许的吧? 打勾勾:织姬⇒不打 还是去学生食堂吃午餐呢? 诗名? 【诗名篇】回家 打勾勾:诗名⇒不打 躲起来观察状况 一时之间想不出来 打勾勾:诗名⇒不打 有单相思的经验吗? 关于单恋 去找她 躲起来 不吃 -----------------------------------------------------------------------------------------------------------------------再次温馨提醒一下,以下两线需要先打通以上三线才会解锁!千夏HappyEnd打勾勾:织姬⇒不打 回想一些关于鹿电的事 @恋人 @警告她 是千夏? 总之,不行就是不行。 打勾勾:诗名⇒不打 相信霞所说的话 @睡魔 拜托千夏处理 @打勾勾:千夏⇒打 打开电灯 @那么,我也就不能苛责她了 @提醒一下千夏 @当然是她拿手的……摄影社 很可爱的服装 因为很痛,才会大叫 打电话给她 我很欢迎 干脆去做一些非法买卖好了! @如果被千夏知情的话 我想不出来…… 打勾勾:里莎⇒不打 送她一程 @道歉 @因为你的脸靠太近了 你就是当事人啦 接客的规矩 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 跟京姊打声招呼再回去吧 @你也来帮忙 @想要了解 @不要提议 @ SAVE9 和霞一起到外面吃 @(选「和千夏一起到外面吃」有1张CG、选「和霞一起到外面吃」有3张CG。重复存取回收吧。) 你长得好漂亮 @千夏 发生什么事是指? 删除广告简讯 再问一次 @把她挖起来 今天先拒绝 既然这样,就麻烦你帮忙吧 住在附近的—— 坚决地阻止 带出门 是你听错了! 拉她手 @坚持拒绝 打勾勾:千夏⇒打 我不能把感冒传染给你啊 @就照老师说的吧 不请 好可爱啊 @抱住千夏! @抓娃娃送她 @直接离开 打勾勾:织姬⇒不打 抱住她 @ SAVE10 给她备用钥匙 @【千夏・霞共通】SAVE11(霞路线攻略时使用) 啊~~真是幸福啊! 真高兴 发生了不少事 对天川叔感到不满 早上跟晚上用的 娇小可爱的女孩子 默不作声 打电话给千夏 感觉好像被骗了 公园 ………… 我就这么不可靠吗? 还是再考虑一下好了 外遇被千夏发现 问说这是打算收买代理店长吗 送千夏回去吗? 不安 千夏,怎么了? 寻找千夏 告诉她特价情报 因为太麻烦了 ……你在说什么蠢话啊 SAVE12 邀千夏一起去 我知道 不说 理所当然 SAVE13 即使如此我还是想看 SAVE14 应该要寻找 【千夏篇】SAVE15 抓住千夏的手 请交给我吧 SAVE16 石阶 千夏BadEnd2SAVE16读取 公寓 BadEnd1SAVE10读取 不给她备用钥匙 @打勾勾:霞⇒打 BadEnd3SAVE12读取 邀亨一起去 邀亨一起去 邀亨一起去 BadEnd5SAVE13读取 不想看 不知道也没关系 BadEnd4SAVE14读取 不要寻找比较好 千夏BadEnd1SAVE15读取 就这样放开小指头 -----------------------------------------------------------------------------------------------------------------------SAVE11」读取后直接从千夏・霞共通开始是可以的。霞HappyEnd打勾勾:织姬⇒不打 回想一些关于鹿电的事 @恋人 @警告她 是千夏? 总之,不行就是不行。 打勾勾:诗名⇒不打 相信霞所说的话 @睡魔 拜托千夏处理 @打勾勾:千夏⇒打 打开电灯 @那么,我也就不能苛责她了。 @提醒一下千夏 @当然是她拿手的……摄影社 很可爱的服装 因为很痛,才会大叫 打电话给她 我很欢迎 干脆去做一些非法买卖好了! @如果被千夏知情的话 我想不出来…… 打勾勾:里莎⇒不打 送她一程 @道歉 @因为你的脸靠太近了 你就是当事人啦 接客的规矩 不需要 打勾勾:里莎⇒不打 打勾勾:诗名⇒不打 跟京姊打声招呼再回去吧 @你也来帮忙 @想要了解 @不要提议 @和霞一起到外面 @你长得好漂亮 千夏 发生什么事是指? 删除广告简讯 再问一次 @把她挖起来 今天先拒绝 既然这样,就麻烦你帮忙吧 住在附近的—— 坚决地阻止 带出门 是你听错了! 拉她手 @坚持拒绝 打勾勾:千夏⇒打 我不能把感冒传染给你啊 @就照老师说的吧 不请 好可爱啊 @抱住千夏! @抓娃娃送她 @直接离开 打勾勾:织姬⇒不打 抱住她 @给她备用钥匙 @【千夏・霞共通】没什么 太过分了 发生了不少事 对天川叔感到不满 早上跟晚上用的 长得高,身材又好的女孩子 出声叫霞 那就接受她的好意吧 我想娶你 随便走走 很在意霞 SAVE17 拿起来,出门追霞 海岸 为什么哭呢? 我来帮忙找东西吧! 那又怎么样 外遇被霞发现 问说这是对我的挑战吗 送霞回去吗? 期待 霞,怎么了? 寻找霞 碰巧 就跟上次说过的一样 我叫不动那家伙啊 邀霞一起去 说 真是可惜 即使如此我还是想看 应该要寻找 【霞篇】SAVE18 霞 霞BadEndSAVE18读取 千夏 BadEnd2SAVE17读取 不拿 以上就是攻略。。。望有所帮助。 标签: 秋之回忆7全结局攻略
    猪猪游戏 2022-11-30
  • 2021欧洲杯总决赛(2021欧洲杯总决赛视频)
    游戏攻略

    2021欧洲杯总决赛(2021欧洲杯总决赛视频)

    欧洲杯决赛:是“足球回家”?还是意大利时隔53年再次捧杯? 北京时间2021年7月12日,凌晨三点,英国温布利球场将迎来本届欧洲杯最重要的一场比赛。1966年以后首次杀入世界大赛的英格兰,迎战本届欧洲杯表现最出色的球队意大利。 英格兰是本届欧洲杯24支参赛球队中,身价最高的球队,高达12.63亿欧元。桑乔与哈里凯恩两人身价都超过1亿欧元,是所有球队中唯一有两名身价过亿球员的球队。 英格兰最近几个赛季人才井喷,年轻的小妖层出不穷,目前球队平均年龄24.9岁。阿森纳19岁的小将萨卡,即将转会曼联的20岁小将桑乔,刚刚获得欧冠冠军的切尔西小将芒特,都是本赛季炙手可热的新星。 最近几个赛季,已经成为曼联核心之一的拉什福德,在本届英格兰队甚至找不到位置。目前一共4次出场,4场比赛总计只有83分钟。身价高达1亿欧元的桑乔也仅仅出场两次,总计上场93分钟。由此可见,英格兰队内竞争有多么激烈。 想想这些年意大利以往的那些球星,世界最佳左后卫马尔蒂尼、忧郁王子巴乔、全能前锋维耶里、游走在越位边缘的因扎吉、罗马王子托蒂,本届欧洲杯的意大利队确实星光黯淡。 即使是这样,意大利全队身价仍然高达7.51亿欧元,全队身价排名第六。这说明意大利的整体实力不弱,很多球员都具有相当不错的实力,只是球队缺少顶级球星。全队身价最高的是中场球员巴雷拉,巴雷拉的身价是6500万欧元,这样的身价在英格兰只能排名第九位。 尽管,英格兰 拥有大批优秀进攻球员,但是,主教练索斯盖特非常务实,英格兰以防守为主,6场欧洲杯比赛,直到上一场对阵丹麦的比赛,英格兰的球门才首次被破。6场比赛,打入10球,仅仅丢了一球。 如果对手实力很强,索斯盖特会以352阵型应对,比如对阵德国的那场比赛。 场上除了守门员之外的10名球员中,三名中后卫加上两名后腰是纯粹防守球员,两名边翼卫是攻守兼备的球员,主要以进攻为主的是三名前锋。斯特林是索斯盖特非常喜欢的球员,斯特林善于突破,也具备一定的射门能力,并且最大优势是速度,很少有防守球员能跟上斯特林的脚步。 哈里凯恩的速度并不快,主要的优势在于后撤拿球,可以将对方后卫吸引出来为队友创造进攻空间。同时,也可以当前腰使用,为队友送出致命直塞球。并且,哈里凯恩的射门能力非常强,具备一个优秀射手的一切能力。 萨卡的优势在于突破和传中,与丹麦的比赛,正是他的下底传中,造成了丹麦的乌龙球。同时,芒特、格拉利什、桑乔随时可以上场给对手致命一击。 如果是对手实力不如英格兰,索斯盖特会排出433阵型,前场由芒特、斯特林、哈里凯恩、萨卡组成攻击阵型。 意大利的战术 意大利是本届欧洲杯进攻最激进的球队,除了对阵西班牙的那场比赛以外。其他5场比赛,意大利全部以全攻全守应对。 在面对世界排名第一的比利时的那场比赛,意大利的疯抢甚至让比利时一度不能顺利通过半场。但是,这种打法十分耗费体能,与比利时的那场比赛70分钟之后,意大利的体能下降很明显。同时,这种打法球员也很容易受伤,意大利左后卫斯皮纳佐拉就是在这场比赛中,跟腱撕裂,预计将伤缺6个月。 对阵西班牙的比赛,意大利主教练曼奇尼选择了回缩防守,打西班牙的反击。这种方法,尽管场面并不好看,但是效果很好,并且节省体能。最终,意大利通过点球淘汰了西班牙,闯入了欧洲杯决赛。 本场比赛,双方实力势均力敌,英格兰拥有主场之利,由于6场比赛,有5场是在温布利球场踢的,所以他们更加占有体能优势。 意大利的优势在于,欧洲杯6场比赛他们都是最后的胜利者。并且,意大利淘汰了世界排名第一的比利时,送走了世界上技术最出色的西班牙。这两场艰难的比赛,一定会让意大利全队自信心爆棚,战胜了世界上最好的球队,说明意大利就是最好的球队。 欧洲杯半决赛的两场平局,令很多球迷没有想到。本场比赛,机构又在刻意制造90分钟之内平局的预期。因此,本场比赛很大概率双方在90分钟分出胜负。 “足球回家”,不论是“跳着”回家,还是以其他方式回家,英格兰都能接受。 本场比赛,更加看好英格兰在温布利球场首次捧起德劳内杯。 以上分析是本人个人观点,仅供参考,希望大家在评论区一起讨论。 欧洲杯决赛瑞士3:3法国,点球大战击败法国晋级,如何评价这场比赛?1)比赛前一个小时见到朗格莱先发登场,那时候没都还没细想。看了上一场的加时,一边洗澡一边想他与金彭贝2个左腿张掖要怎么战位。比赛前嘿哈组成也在探讨这个难题,张指导说,3张掖管理体系下对边张掖规定高些因此朗格莱应该是立在中单。不由自主感叹张指导或是懂球,但是丫头也在心中BB了一句,正中间张掖规定没那么高可是朗格莱也不足啊。2)果真,比赛只是14分钟,丫头刚明确荷兰的防御战位的确如张指导所言,一边感叹张指导厉害之外一边暗自忧虑,朗格莱就被塞费罗维奇一个任意球辗压,荷兰失球了。在朗格莱的烘托下,塞费罗维奇跳得像C罗。3)非常好,一直都想看看这支博学多才可是在德尚强盛时期踢得稍显传统的法国队迫不得已压进去的状况下,能弄成哪些。4)为什么在防御中乌姆蒂蒂仍然顶那么靠前,边路防御瓦拉内拉到边框线部位去盯守另一方的边前卫?防御战位四控球后卫从左往右一次是瓦拉内,朗格莱,金彭贝,拉比奥,但是拉比奥是一个左边后卫,乌姆蒂蒂才算是正品右边后卫啊。5)张指导毫不迟疑一针见血地强调乌姆蒂蒂是法国阵容的软肋,想一想对战奥地利那一场被欧帆绍洛伊各种各样工程爆破,德尚用朗格莱的用意难道说是将我的软助变为一个更高的系统漏洞,那以前的软助就不会有了?有念头!6)39分钟,摄像镜头给到左侧上半场,见到战位丫头的第一反应和嘿哈两位讲解一样,荷兰好像改打四控球后卫了,拉比奥返回中场球员,金彭贝去打以前踢过的任意球大师,重返433.刚想起这一点法国一次还击传入右前卫,一个极大的空当。乌姆蒂蒂人??7)预选赛第一场丫头感觉法国的恩博洛有点像拉卡泽特超级偶像是亚亚图雷踢足球像马斯切拉诺,终究那一场赛事他的任意球和撞击力充分发挥得酣畅淋漓。这次一看,小技术性和推动也很不错啊,觉得踢足球更像出道时时的巴洛特利。8)一直都在说,在德尚的调试下,这支法国队可以学会放下身子取回来打,很实际也很恐怖。见到前半场后三十分钟的主要表现,逐渐有一点担忧必须压出去打的情况下,这支荷兰仿佛没什么成型的招数啊。九十分钟完毕9)就前半场荷兰的主要表现和昨日西班牙的主要表现看来,F组本认为是死亡之组,如今看来是菜鸡互啄啊。感觉把F组拆开4支足球队各自去别的工作组,工作组小组出线概率较大 的,是奥地利啊。10)后半场一开局,德尚换别人调节,深迈更换下朗格莱一边提升下路的提升一边打自己的脸。话说若不是来源于拜仁慕尼黑的深迈大型商场丫头也没有想起来,德尚为了更好地带朗格莱舍弃的是下赛季将要加盟代理拜仁慕尼黑的于帕梅卡诺啊!11)后半场52分钟,瑞士队取得一个界外球,全部全过程顺利的话的也是乌姆蒂蒂被另一方点射工程爆破,爆得渣也不剩。幸亏大队长洛里解救了足球队。12)54分钟,拉卡泽特耗尽洪荒之力歌曲控制住自身射门的不理智给格列兹曼穿出一个很好的机遇,遗憾格列兹曼常用的推远角的射球方法打偏了。说起来本届世界杯格列兹曼射球的觉得都很一般,除开对法国被刮走的那一个辗转腾挪以后推远角,一直射球脚风不如意。但是好在如今的格列兹曼可以用别的方法为足球队作出贡献。12)例如2个入球全过程中,在雷区中心点的短传。本泽马持续了一个赛季至今的好情况。在本人参与的第三届世界杯总算开启入球账户以后,一发一发不可收拾。13)本泽马打进第一个入球就在微信上跟朋友说,法国没有了,一进一出斗志太伤了。话刚讲完本泽马就打进了第二个球。巴萨罗那的锅,皇家马德里来背。法国队内的意大利巴萨vs皇马巴萨罗那大败。14)2016年世界杯1/8总决赛,前半场荷兰1球落伍西班牙,后半场马尔基西奥短期内梅开二度追上战况。2021年世界杯1/8总决赛,前半场荷兰1球落伍法国,后半场本泽马短期内内梅开二度追上战况。15)强烈要求ac米兰再出一个亿,给拉卡泽特买一个中国国家队肌肤或是买一个坎特。还需要啥B费,要啥布林德啊。要不会再加一点钱卖给切尔西队,别人不但有坎特还内置深蓝色肌肤。16)说出来丫头自身都不敢相信,刚敲完上边那一段话,拉卡泽特就入球了。很久不见的传统艺能,一个入球,5个庆贺。这……一个夜里两次淘汰赛制,九十分钟两次3:3了,连战况转变 都一样。世界杯乌龙球台本实锤了,造假都无需小点心,拷贝粘贴欺骗全世界观众们!加时完毕:17)加时前半场完毕,看数据信息除开射球数以外,法国整场也不哭天喊地,这或是包含了界外球罚丢以后斗志被严厉打击看起来很错乱的一段时间。简直值得尊重。格列兹曼本届赛事射球脚风一直都不如意,要不然加时应当能够结束赛事了,第二次消耗拉卡泽特精妙的传接球。18)再度严格执行,由于体质和本人技术性工作能力的区别,在高端局中,拉卡泽特是比B费高于最少一个级别的足球运动员。不论是持球推动机构攻击传威胁球,都要好出许多。就连B费最善于的立即进攻守门员都不遑多让。19)谁可以想起这届世界杯第一轮最贴近点球大赛的两次淘汰赛制是开战以前感觉伏笔最少整体实力差别较大 的两次。有别于德国整场防御在加时还手握着四个换别人配额却不曾坚持不懈到界外球,法国这里很早用完后换别人配额以命相搏才迈入了这一最后的希望。20)点球大赛,洛里没能再一次拯救世界大赛,虽然第四个界外球他遇到了。格列兹曼的射球脚风难题持续到更为重要的时刻,索莫将法国送进了八强。21)一共10个界外球,格列兹曼的界外球是品质最好的一个。22)恭贺法国,她们完成了和葡萄牙一样的绝地逢生而且保证了葡萄牙没能保证的事儿。26)2018年世界杯赛冠军,在同一个夜里被淘汰了。欧洲杯世界驰名双标!英格兰带着争议冲击冠军,意大利更加坚韧2021年欧洲杯赛场,截至北京时间7月8日晨,决赛对阵双方出炉,意大利队与英格兰队会师决赛。英格兰与丹麦这场半决赛对决争议不断,其关键在于加时赛的那个点球判罚,直接决定双方命运。比赛结束之后,足坛诸多名宿发表言论认为不应该判罚点球,包括穆里尼奥、温格等著名教头。这次判罚更大的争议在于主裁判不回看VAR,无数球迷为丹麦队喊冤。 英格兰队惊险晋级欧洲杯决赛,赢得实在是很侥幸。英格兰队及其支持者欢庆之余,英格兰媒体绝口不提点球争议;若以往英格兰队多少遭受点委屈,英格兰媒体会吵得天翻地覆。因此,英格兰媒体被质疑双标。联想到之前国际上发生的一些事情,有中国球迷回复:“这不就是著名的世界驰名双标”。 站在英格兰媒体的角度而言,这种时候该回避当然要回避,总不能带头去抨击裁判,英格兰队始终是获利的一方,选择性视而不见是足坛惯例。对比55年前英格兰本土世界杯的门线悬案,这次争议更加鲜明,即使英格兰队最终夺冠,总会使得这个冠军头衔增添争议色彩。当然,英格兰能否夺冠还要问意大利队答不答应,上半区走来的意大利队显得韧劲十足。 综合而言,英格兰队半决赛过关实在是太侥幸,一旦比赛被拖入点球大战,那双方胜负的偶然性将陡增,不管之前英格兰队的场面优势有多大,点球大战只看对射结果。就比如半决赛另外场意西之战,西班牙占据绝对场面优势,可就是没办法取得更多进球。英格兰首次跻身欧洲杯决赛,距离欧洲冠军还剩最后一关,决赛又在家门口作战,相对占据着一定优势,拥有更好的争冠前景。 欧洲杯决赛将于北京时间7月12日凌晨3点打响,最后大戏即将上演。英格兰队所在下半区遇到的阻力相对更低,但并非缺乏含金量。1/8对决掀翻实力强劲的德国战车,1/4决赛横扫乌克兰晋级;而半决赛的对手丹麦可真不是弱旅,当前的世界排名是第10位。相比于英格兰的晋级之路,意大利队确实要艰难得多,连续过关比利时和西班牙,呈现得更加坚韧。 综合看来,欧洲杯决赛极可能又是一场加时之战,甚至是点球大战。意大利队防守极其顽强,小组赛0丢球,整体丢球率非常低;而英格兰队丢球数更少,仅半决赛丢过1个球,其余比赛是0失球。双方都非常注重防守,决赛难免是沉闷大战,关键看谁的后防有失误出现,或是乌龙君再度抢戏出境。半决赛又现乌龙球,本届欧洲杯的乌龙球已经多达11个,决赛乌龙君进球的概率还真不低。2821欧洲杯冠军是哪个?2021欧洲杯冠军是意大利队。北京时间2021年7月12日凌晨3时,在英国伦敦温布利球场进行的欧洲杯决赛中,意大利队和英格兰队在120分钟内战成1:1。点球决胜阶段,贝洛蒂、拉什福德、桑乔、若日尼奥和萨卡相继罚失点球,意大利队最终以4:3的总比分战胜英格兰队,夺得本届欧洲杯冠军。比赛仅仅开场1分57秒,凯恩中场策动,特里皮尔送出45度传中,后点的卢克·肖凌空抽射破门,英格兰1-0领先意大利。卢克·肖的进球,成为了欧洲杯决赛历史上最快的破门,这也是卢克·肖为英格兰队打进的国家队生涯第一球,今天更是他的26岁生日。而这也是意大利自2020年9月以来首次在比赛中率先失球,结束了14场比赛不落后的纪录。同时,曼奇尼的意大利队在创纪录的33场不败中,他们总共只落后了44分钟。但决赛对阵英格兰的上半场,蓝衣军团就落后了43分钟。开场就遭遇落后,意大利队却没有及时找回状态——在面对密集防守时,短传、长传、斜传全部使出,但只有小基耶萨的个人突破远射制造了机会。可以说,整个上半场意大利都在英格兰的比赛节奏中。英格兰传奇前锋阿兰·希勒就表示,“英格兰队在比赛中打上了自己的烙印,他们压迫,他们骚扰,他们提供宽度,这给意大利队带来了各种各样的问题。一切都非常积极。”下半场比赛,曼奇尼换下因莫比莱和巴雷拉,起用贝拉尔迪和克里斯坦特。随后,意大利队开始占据主动,控球率一度占到71%。比赛第66分钟,意大利队在定位球中找到机会,博努奇乱战补射破门,1:1!意大利队扳平比分。34岁71天的博努奇是欧洲杯决赛至今年龄最大的进球者,他也是自2006年世界杯马特拉齐对阵法国以来,第一位在重大国际赛事决赛中进球的意大利球员。意大利在本次欧洲杯打进了13球,这是蓝衣军团在欧洲杯和世界杯单届比赛中的最高进球数。此外,本场比赛也是历史上第一场欧洲杯或世界杯决赛中,由防守队员打入多个进球。这也是自2000年(法国2-1意大利)以来第一次两队都有进球的欧洲杯决赛。90分钟内双方战成1-1,比分回到同一起跑线后,比赛也陷入僵局。这种胶着从常规时间延续到加时赛中。加时赛依旧毫无建树,只能依靠点球大战决一胜负。而这也是欧洲杯决赛历史上第二次点球大战,而上一次还是在45年前的1976年,当时的对阵双方是捷克斯洛伐克和联邦德国,双方最终战成7-5(点球5-3)。眼见点球大战不可避免,英格兰队主帅索斯盖特作出了最后两个换人调整,年轻的拉什福德与桑乔登场,他们显然是为点球大战准备的后手。然而这种期待,也伴随着巨大的压力。残酷的点球大战中,贝洛蒂的点球被皮克福德扑出,拉什福德的点球击中门柱,桑乔的点球被唐纳鲁马扑出,若日尼奥的点球也被皮克福德没收,最后出场的萨卡也罚丢点球,意大利队就此拿下欧洲杯冠军!2021欧洲杯比赛时间,有晓得的吗?2021年欧洲杯,该届比赛采无主办国的巡回赛方式,于北京时间2021年6月12日至7月12日在欧洲的11个城市举行,其中半决赛和决赛都在伦敦的温布利球场举行。北京时间2021年7月12日,意大利队在决赛中通过点球大战以总比分4:3击败英格兰队,时隔53年再次夺得欧锦赛冠军。 标签: 2021欧洲杯总决赛
    猪猪游戏 2022-11-30